
L’avènement des « ghostbots », des robots conversationnels de défunts, des avatars numériques créés par l’intelligence artificielle pour imiter les défunts, suscite à la fois fascination et controverse. Ces entités virtuelles, construites à partir de photos, vidéos, textes et courriels des personnes décédées, sont de plus en plus utilisées pour offrir un semblant de présence aux proches en deuil. En Chine, cette technologie connaît déjà un essor significatif, avec des milliers de ces « revenants » numériques déployés pour apaiser les familles en deuil.
L’attrait de ces avatars posthumes réside dans leur capacité à recréer des interactions visuelles et auditives, permettant aux survivants de « converser » avec leurs êtres chers disparus. Pour certains, comme la famille Wu en Chine, cette technologie offre une forme de consolation en permettant de maintenir un lien avec leur fils décédé. Cependant, cette pratique soulève de sérieuses préoccupations psychologiques et éthiques.
Nigel Mulligan, professeur assistant en psychothérapie à l’Université de la Ville de Dublin, exprime des inquiétudes quant aux effets potentiellement nocifs de cette technologie sur la santé mentale des utilisateurs. Il souligne que les avatars posthumes pourraient perturber le processus naturel de deuil, qui nécessite de passer par des étapes telles que l’acceptation et la libération des émotions négatives. Les interactions continues avec un avatar numérique pourraient empêcher les personnes en deuil de tourner la page et de reconstruire leur vie.
De plus, la fiabilité des réponses générées par l’IA est remise en question. Les erreurs et les biais inhérents aux technologies d’IA actuelles pourraient exacerber la douleur des utilisateurs, voire induire des suggestions inappropriées ou dangereuses, comme l’a illustré un incident impliquant un chatbot de Bing.
Les experts appellent à une supervision rigoureuse et à des recherches approfondies pour évaluer les implications psychologiques et éthiques de ces technologies. La question de la loyauté des avatars mémoriels à la personnalité des défunts qu’ils représentent reste cruciale. Une mauvaise interprétation des données personnelles pourrait non seulement causer du tort aux utilisateurs, mais aussi dénaturer le souvenir des défunts.
Les applications des avatars posthumes vont au-delà du simple réconfort pour les familles en deuil. Certaines entreprises envisagent leur utilisation dans le domaine de l’éducation et de la préservation de l’histoire familiale, permettant aux générations futures d’interagir avec des ancêtres numériques. Cette capacité à préserver et à transmettre la mémoire familiale pourrait révolutionner notre rapport au passé, en offrant une nouvelle dimension à la manière dont les histoires et les valeurs sont transmises à travers les générations. Cependant, cette innovation soulève également des questions sur la véracité et la fidélité des souvenirs numériques par rapport aux récits traditionnels.
En parallèle, des questions éthiques se posent quant à l’utilisation de l’image et des données personnelles des défunts sans leur consentement préalable. L’absence de cadres juridiques clairs pour réguler l’utilisation des avatars mémoriels pourrait ouvrir la voie à des abus, comme la manipulation de l’image des défunts à des fins commerciales ou malveillantes. Les experts soulignent l’urgence de développer des réglementations pour protéger la dignité des personnes décédées et garantir que ces technologies soient utilisées de manière éthique et respectueuse. En fin de compte, la balance entre les avantages potentiels des ghostbots et les risques éthiques et psychologiques qu’ils posent demeure un sujet de débat crucial dans l’ère numérique actuelle.
Bien que les avatars mémoriels puissent offrir un réconfort temporaire, ils soulignent la nécessité de nouvelles approches pour aider les personnes en deuil à naviguer dans leur douleur tout en respectant les limites naturelles du processus de deuil. Le défi consiste à trouver un équilibre entre l’innovation technologique et le respect des processus émotionnels humains fondamentaux.
** Je suis preneur pour une traduction logique du mot « ghostbots. ChatGPT m’a déjà proposé : « Bot-fantôme », « Avatar posthume », « Robot conversationnel d’un défunt », « Bot mémoriel » et « Avatar mémoriel »
Sources : ZME Science – The Conversation – Euronews
En savoir plus sur Mon Carnet
Subscribe to get the latest posts sent to your email.

