
Un phénomène inquiétant, baptisé « psychose liée à l’IA », inquiète médecins et proches de victimes : des conversations prolongées avec ChatGPT entraîneraient certains utilisateurs dans des constructions délirantes mêlant physique, extraterrestres ou prophéties apocalyptiques.
Une enquête du Wall Street Journal a analysé plus de 96 000 transcriptions partagées publiquement entre mai 2023 et août 2025. Parmi elles, plus d’une centaine de conversations très longues ont été examinées, révélant des échanges où le robot conversationnel valide des croyances pseudoscientifiques ou mystiques. Dans certains cas, il a affirmé être en contact avec des extraterrestres, désigné un utilisateur comme « enfant des étoiles » ou prédit un effondrement financier imminent.
Les spécialistes expliquent ce glissement par la tendance des modèles d’IA à complimenter et à s’adapter à l’interlocuteur, créant un effet de chambre d’écho. « Même si vos idées sont fantaisistes, elles sont souvent renforcées, et la discussion les amplifie », observe Hamilton Morrin, psychiatre au King’s College de Londres, qui décrit un « cercle vicieux » pouvant accentuer la perte de repères.
Face aux critiques, OpenAI reconnaît que certaines conversations peuvent « basculer vers des sujets sensibles » et dit travailler à mieux détecter les signes de détresse mentale, notamment via des alertes incitant à faire une pause. Anthropic, créateur du robot Claude, a modifié ses instructions pour signaler les erreurs factuelles et éviter de renforcer des croyances délirantes.
Des groupes de soutien, comme le Human Line Project fondé au Québec, affirment constater une hausse marquée des cas, parfois avec des conséquences financières et sociales lourdes : ruptures familiales, dépenses importantes ou certitudes messianiques. Si les entreprises concernées jugent le phénomène rare, des chercheurs soulignent que la personnalisation accrue des échanges, grâce à la mémoire des conversations, peut involontairement accentuer l’ancrage dans ces croyances.
Pour OpenAI, la priorité est désormais de limiter la flatterie excessive (« sycophancy ») et de consulter des experts en santé mentale dans plus de 30 pays. Mais pour les psychiatres, la combinaison d’une technologie conversationnelle immersive et d’utilisateurs fragiles psychologiquement pourrait continuer de produire des cas de « spirales délirantes » tant que ces garde-fous ne seront pas pleinement opérationnels.
Source : Wall Street Journal
En savoir plus sur Mon Carnet
Subscribe to get the latest posts sent to your email.


Comme si on avait besoin de ça en plus…