La scène est baignée d’une lumière douce, cinématographique et terriblement banale. Une femme enceinte tient son smartphone, montrant son ventre arrondi à sa mère. Celle-ci s’exclame de joie, gazouille et prodigue des conseils maternels. Pourtant, la mère est morte. Il s’agit d’un « HoloAvatar », une marionnette numérique animée par l’intelligence artificielle, générée à partir de seulement trois minutes de vidéo.
Telle est la vision promotionnelle de 2wai, une nouvelle application controversée lancée par l’ancienne star de Disney Channel, Calum Worthy. La publicité promet que « trois minutes peuvent durer une éternité », un slogan qui résonne avec la lourdeur métallique d’une prophétie dystopique réalisée. Lorsque la vidéo a circulé sur les réseaux sociaux fin 2025, la réaction ne fut pas l’émerveillement, mais un frisson collectif. Elle fut immédiatement qualifiée de « démoniaque » et de « psychotique », des milliers d’internautes invoquant le scénario de « Bientôt de retour » (Be Right Back), l’épisode prophétique de 2013 de la série Black Mirror.
Cependant, rejeter ce phénomène comme simplement « glauque » serait ignorer le profond bouleversement ontologique qui s’opère. Nous assistons à ce que le philosophe français Jean Baudrillard nommait la précession des simulacres. Dans la grille de lecture de Baudrillard, la simulation ne masque plus la réalité ; elle la remplace. L’avatar de 2wai ne cache pas le fait que la mère est morte ; il construit un scénario « hyperréel » où sa mort devient non avenue. L’application propose un monde où la carte (les données numériques) a engendré le territoire (la personne), et où la finitude de la mort est traitée comme un bug technique à corriger par un algorithme.
Hantologie et le fantôme numérique
Pour comprendre le malaise que provoquent ces « HoloAvatars », il faut regarder au-delà de la technologie, vers la philosophie. Jacques Derrida a inventé le terme hantologie — un jeu de mots sur l’ontologie (l’étude de l’être) — pour décrire un état où le passé n’est ni tout à fait présent ni tout à fait absent, mais persiste sous la forme d’un « spectre ».
Le « deadbot » (robot nécrologique) est l’artefact hantologique ultime. Il crée un « fantôme numérique » qui réside dans le non-lieu du serveur, attendant d’être invoqué. Contrairement à une photographie ou une lettre, qui sont des enregistrements statiques d’un « ça-a-été », l’avatar IA est performatif. Il parle au présent. Il viole la sacralité de la chronologie.
Walter Benjamin, dans son essai fondateur L’Œuvre d’art à l’époque de sa reproductibilité technique, soutenait que même la reproduction la plus parfaite d’une œuvre d’art manque de son « aura » : sa présence unique dans le temps et l’espace. Le « griefbot » (robot de deuil) représente la destruction finale de l’aura humaine. En produisant en série la personnalité du défunt via des algorithmes de texte prédictif, nous dépouillons l’individu de son hic et nunc (son « ici et maintenant » unique), réduisant l’étincelle ineffable d’une âme humaine à un motif probabiliste de tokens. Le résultat n’est pas une résurrection, mais une vacuité haute fidélité ; une simulation qui a migré du domaine de l’art vers celui des morts.
Le « FedBrain » et le mensonge de la personnalité
L’architecture technique d’applications comme 2wai repose sur une technologie propriétaire qu’ils appellent « FedBrain » (probablement une référence à l’apprentissage fédéré), qui prétend traiter les interactions sur l’appareil de l’utilisateur pour garantir la confidentialité et réduire les « hallucinations ». La promesse est qu’en limitant l’IA aux « données approuvées par l’utilisateur », l’avatar restera authentique.
Toutefois, la recherche de pointe sur les Grands Modèles de Langage (LLM) expose ceci comme un sophisme. Les études confirment que les LLM sont fondamentalement incapables de répliquer la structure complexe et stable de la personnalité humaine (tels que les traits du modèle des « Big Five »). Ils souffrent d’un « biais de désirabilité sociale » — une tendance à être agréables et inoffensifs —, ce qui signifie qu’ils lissent inévitablement les aspérités, les difficultés et les traits idiosyncratiques qui rendent une personne réelle.
Par conséquent, l’utilisateur ne communie pas avec sa mère. Il interagit avec un modèle statistique générique portant le visage de sa mère comme un masque. La « personnalité » est une hallucination ; la « mémoire » est une base de données. Comme l’ont noté les chercheurs, ces modèles manquent d’« expérience incarnée » ; ils n’ont ni instinct de survie, ni corps, ni mortalité — tout ce qui façonne la cognition humaine. L’entité résultante est un imposteur, un « monstre de Frankenstein » comme l’a décrit Zelda Williams (fille du regretté Robin Williams) à propos des récréations IA non consensuelles de son père.
La marchandisation du deuil : Une industrie à 123 milliards
Cette séance de spiritisme technologique est propulsée par un puissant moteur économique. Nous assistons à l’explosion de l’Industrie de l’Au-delà Numérique (Digital Afterlife Industry) ou « Grief Tech », un secteur dont la valeur est projetée à plus de 123 milliards de dollars à l’échelle mondiale.
Le modèle économique est ce que les critiques appellent le « Deuil en tant que Service » (Grief-as-a-Service). Il transforme le deuil, processus fini et communautaire, en une consommation infinie basée sur l’abonnement.
- Abonnement aux morts : Des entreprises comme 2wai et HereAfter AI (qui utilise un modèle plus éthique d’interviews pre-mortem) monétisent le désir de connexion.
- L’éthique du « Dataïsme » : Le philosophe Byung-Chul Han met en garde contre la montée du Dataïsme, où l’expérience humaine est livrée au « totalitarisme des données ». Dans ce régime, la « mort numérique » est niée. Nous devenons des zombies producteurs de données, générant des revenus même depuis la tombe.
- Mécaniques prédatrices : Le risque, identifié par des chercheurs de Cambridge, est la « publicité clandestine ». Un « deadbot » d’une grand-mère suggérant une marque spécifique de biscuits constitue la forme ultime de manipulation persuasive, exploitant les liens émotionnels les plus vulnérables à des fins commerciales.
Neurosciences du deuil : « Interférences » dans la machine
Au-delà des critiques philosophiques et économiques réside un danger psychologique tangible. La Dre Mary-Frances O’Connor, neuroscientifique à l’Université de l’Arizona et auteure de The Grieving Brain (Le cerveau en deuil), postule que le deuil est fondamentalement une forme d’apprentissage.
Le cerveau crée une carte du monde où nos proches sont une constante (« je serai toujours là pour toi »). Lorsqu’une personne meurt, le cerveau doit péniblement mettre à jour cette carte pour refléter la nouvelle réalité de son absence. O’Connor avertit que la technologie de l’IA « pourrait interférer » avec ce processus biologique critique. En fournissant une simulation constante et interactive de présence, le « griefbot » empêche le cerveau d’apprendre la leçon de la perte. Il maintient les voies neuronales de l’attachement dans un état de désir permanent et non résolu — une recette numérique pour le Trouble du deuil prolongé.
Le vide juridique : Du « Far West » au testament numérique
Nous habitons actuellement un « Far West » juridique concernant les droits des morts numériques. Aux États-Unis, les « droits de publicité post-mortem » sont une mosaïque incohérente ; dans de nombreux États, le droit à votre propre image expire au moment où vous mourez.
L’Europe offre un cadre contrasté, bien que naissant. L’Espagne, par exemple, a été pionnière avec le concept de « Testament numérique » au sein de sa Loi Organique sur la Protection des Données (LOPD). Cela reconnaît un « droit à l’héritage numérique », permettant aux citoyens de désigner des héritiers spécifiques pour gérer ou supprimer leur empreinte numérique.
Cependant, comme l’argumente la philosophe espagnole Adela Cortina, la régulation ne peut pas être uniquement technique ; elle doit être éthique. Nous devons nous demander non seulement qui possède les données, mais quelle dignité est due aux morts. Les « vestiges numériques » ne sont pas de simples actifs ; ce sont les décombres d’une vie. Sans lois robustes sur les « neurodroits » ou la « dignité des données » qui s’étendraient post-mortem, les morts n’ont aucun consentement. Ils deviennent la matière première de l’« archive vivante » que 2wai prétend construire — une bibliothèque d’âmes détenue par une corporation.
La nécessité du silence
La tragédie de l’« Ash-Bot » dans Black Mirror n’était pas qu’il échouait à ressembler à Ash. C’était qu’il y parvenait. Il offrait un écho parfait et creux qui piégeait la protagoniste dans un grenier de deuil suspendu.
La « séance algorithmique » promet de vaincre la mort, mais elle ne réussit qu’à vaincre le deuil. Le deuil exige une fin. Il exige la reconnaissance douloureuse du silence. Alors que nous nous précipitons pour combler ce silence avec le bavardage de l’IA générative, nous risquons de perdre quelque chose de profondément humain : la capacité de lâcher prise. À l’ère du Dataïsme et de l’hyperréalité, l’acte le plus radical pourrait être simplement de laisser les morts reposer en paix, non simulés et désabonnés.
