Se confier à un robot : la nouvelle frontière

Une nouvelle fracture numérique se dessine autour des robots conversationnels utilisés à des fins émotionnelles. D’un côté, ceux qui y trouvent du réconfort, voire une forme d’amitié ; de l’autre, ceux qui rejettent catégoriquement cette idée, la jugeant incompatible avec une relation humaine authentique.

Deux études récentes – l’une observationnelle sur la plateforme ChatGPT, l’autre expérimentale sur près de 1 000 participants – menées par OpenAI et le MIT Media Lab montrent une réalité nuancée. Une partie des utilisateurs perçoivent une sensibilité émotionnelle dans leurs échanges avec l’IA, en particulier lorsqu’ils utilisent la voix. Certains vont jusqu’à qualifier le robot de confident, voire d’ami. Chez les jeunes adultes, ce phénomène est particulièrement marqué : plus de la moitié se disent à l’aise de discuter de santé mentale avec un robot conversationnel.

Pour les chercheurs, ces résultats s’expliquent en partie par ce qu’ils appellent « l’alignement socioaffectif » : la capacité de l’IA à s’adapter à la dynamique émotionnelle de l’utilisateur. Toutefois, cette empathie est souvent perçue plutôt que réelle. Dès qu’un bogue survient, l’illusion se brise. « L’empathie est dans l’œil de celui qui regarde », note le psychologue Lucas LaFreniere.

Plus préoccupant, l’étude longitudinale menée sur quatre semaines révèle que les utilisateurs les plus engagés, surtout ceux se sentant initialement seuls, tendent à développer une forme de dépendance émotionnelle à l’outil. Chez eux, l’usage intensif est corrélé à une baisse de socialisation et à une hausse des indicateurs de mal-être émotionnel.

La sociologue Sherry Turkle, spécialiste des technologies et de l’intimité, met en garde contre une dérive thérapeutique : « Une relation thérapeutique repose sur un être humain capable de comprendre la complexité de la vie. Ce que l’IA ne peut pas faire. »

Cela dit, certains experts soulignent que l’IA, entraînée sur des œuvres littéraires ou des dialogues humains, peut offrir une forme d’empathie cognitive – une compréhension des émotions exprimées. Une capacité utile, mais qui ne remplace pas la présence humaine.

Les robots conversationnels peuvent jouer un rôle ponctuel de soutien, notamment pour ceux qui hésitent à se confier à autrui. Mais leur usage à des fins émotionnelles soulève des questions éthiques et psychologiques. À l’heure où l’IA devient plus « humaine » dans son expression, il importe de ne pas confondre écoute simulée et réelle compassion.

(Source : Etude)

*****

Tous les jours de la semaine, du lundi au vendredi, Bruno Guglielminetti
vous propose un rendez-vous express de 120 secondes pour
connaitre l’essentiel de l’actualité tech.


En savoir plus sur Mon Carnet

Subscribe to get the latest posts sent to your email.

Un commentaire

Laisser un commentaire