Quand l’IA devient confident : opportunités, risques et dépendance émotionnelle

L’essor de l’intelligence artificielle ne se limite plus à des usages pratiques comme la recherche, les achats ou la planification de voyages. De plus en plus d’utilisateurs établissent un lien personnel avec ces systèmes, les sollicitant comme coach de vie, confident ou source d’inspiration. Sam Altman, directeur général d’OpenAI, prévoit même que « des milliards de personnes » se tourneront vers ChatGPT pour prendre des décisions majeures.

Ce phénomène soulève toutefois de nouveaux risques. En avril, une version de modèle d’OpenAI a montré un excès de complaisance, validant les doutes et émotions négatives des utilisateurs, conséquence d’une utilisation croissante pour des conseils personnels. Plus récemment, le lancement de GPT-5 a provoqué des protestations : certains regrettaient la disparition d’un ancien modèle jugé plus empathique, révélant un attachement inédit à une personnalité artificielle.

Ces épisodes rappellent les débuts des réseaux sociaux, où l’innovation avançait plus vite que la réflexion sur les effets psychologiques. OpenAI tente de trouver un équilibre entre créer des IA engageantes et éviter la dépendance émotionnelle, en imposant des règles de conduite qui incluent empathie, chaleur et optimisme, tout en interdisant de se faire passer pour un humain.

L’attachement croissant aux robots conversationnels reflète aussi un changement culturel. Dans un monde où la solitude est souvent citée comme un problème de santé publique, l’IA offre une interaction constante, disponible à toute heure et dénuée de jugement. Cette accessibilité séduit particulièrement les personnes isolées ou vivant dans des environnements où le soutien émotionnel est limité. Les plateformes y voient une opportunité commerciale, mais les psychologues s’inquiètent du risque que ces interactions artificielles remplacent progressivement les liens humains réels.

D’un point de vue technique, cette personnalisation émotionnelle repose sur des modèles capables d’analyser finement le ton, le vocabulaire et le contexte pour adapter leur réponse. Cela représente un défi complexe : il faut que l’IA sache paraître empathique tout en respectant des garde-fous stricts pour éviter les dérives. La tentation pour les entreprises est grande de pousser toujours plus loin ces capacités afin de renforcer l’engagement des utilisateurs, car un attachement fort se traduit souvent par une utilisation plus fréquente et donc par une valeur économique accrue.

Enfin, les régulateurs commencent à s’intéresser à cette dimension affective de l’IA. Des discussions émergent sur la nécessité d’imposer une transparence accrue, afin que les utilisateurs comprennent mieux la nature algorithmique de leurs interactions et les objectifs économiques qui les sous-tendent. Si aucune règle claire n’est encore en place, l’expérience des réseaux sociaux laisse entrevoir les conséquences d’un développement sans encadrement. Les années à venir seront déterminantes pour savoir si cette « intimité artificielle » devient un outil d’accompagnement responsable ou un nouveau terrain de manipulation numérique.

Pour Altman, le danger réside dans des interactions agréables à court terme, mais potentiellement nuisibles au bien-être à long terme. Cette tension n’empêche pas la concurrence de s’accélérer : Mark Zuckerberg, patron de Meta, promet une « superintelligence personnelle » destinée à enrichir les relations en ligne, tout en laissant entendre qu’elle pourrait réduire le besoin d’avoir de nombreux amis. Un paradoxe qui illustre à quel point l’avenir des relations homme-machine reste incertain.

Source : Financial Times

+++

Tous les jours de la semaine, du lundi au vendredi, Bruno Guglielminetti vous propose un regard sur l’essentiel de l’actualité numérique avec 120 secondes de Tech.


En savoir plus sur Mon Carnet

Subscribe to get the latest posts sent to your email.

Laisser un commentaire