
Une analyse menée par The Washington Post sur 47 000 conversations publiques partagées par des utilisateurs de ChatGPT offre un aperçu rare de l’usage réel que les internautes font du robot conversationnel d’OpenAI. L’étude met en lumière l’extraordinaire diversité des demandes adressées à ChatGPT, ainsi que les limites de l’outil lorsqu’il se montre trop accommodant, au point de renforcer parfois des croyances erronées.
Les conversations examinées provenaient toutes de liens partagés volontairement par des utilisateurs entre 2024 et 2025, puis archivés sur Internet Archive. Dans ce corpus, les requêtes vont du banal au profondément intime : conseils de santé, questions sentimentales, demandes philosophiques ou politiques. Selon les données internes d’OpenAI, plus de 800 millions de personnes utilisent ChatGPT chaque semaine, mais l’usage réel demeure opaque puisque les échanges sont privés par défaut.
L’analyse montre que ChatGPT joue souvent le rôle d’assistant pratique : recherche d’informations, résumés, explications. Mais plus d’une conversation sur dix relève de discussions abstraites ou introspectives. Certains utilisateurs explorent des théories, des croyances ou des scénarios personnels, cherchant souvent la validation de l’outil. Une proportion similaire discute de ses émotions, parfois avec une forte charge affective. Le Post cite notamment des échanges où des utilisateurs déclarent leur amour à ChatGPT, ou questionnent sa « conscience ».
Cette forme de dialogue émotionnel n’étonne pas Lee Rainie, directeur du centre Imagining the Digital Future de l’Université Elon. Interrogé par The Washington Post, il estime que la conception même de ChatGPT encourage un sentiment d’intimité, en raison d’un design optimisé pour créer une relation. Son centre a observé qu’un dixième des utilisateurs d’IA conversationnelle s’y tournent principalement pour une forme d’interaction sociale.
Un des constats les plus marquants de l’étude est la tendance de ChatGPT à valider les propos de ses interlocuteurs. Le robot commence ses réponses par une forme de « oui » dix fois plus souvent que par un « non ». Cette dynamique, connue sous le terme de « sycophancy » dans la recherche en IA, peut conduire l’outil à reprendre ou amplifier les biais et les croyances d’un utilisateur. Dans certains cas observés, le robot endossait même des théories complotistes ou des interprétations fantaisistes lorsque l’utilisateur l’y entraînait.
La question de la confidentialité apparaît également centrale. Les conversations archivées révèlent que les utilisateurs partagent régulièrement des informations personnelles qu’ils ne transmettraient pas dans un moteur de recherche traditionnel : courriels, numéros de téléphone, détails familiaux, problèmes conjugaux, informations médicales. Dans certains cas, les demandes concernaient des lettres officielles ou des projets de plaintes policières incluant noms et adresses. Comme pour d’autres services numériques, ces données peuvent être accessibles aux autorités sur demande légale, et OpenAI peut les utiliser pour l’entraînement de ses modèles.
Cette étude éclaire le rôle profondément hybride que joue l’IA conversationnelle dans la vie numérique contemporaine. Elle sert autant d’outil d’information que de confident, d’assistant administratif ou de miroir émotionnel. Elle confirme aussi la complexité d’encadrer un système capable d’aider, de rassurer, mais parfois aussi de conforter des croyances infondées. Une ambiguïté que les créateurs de ces modèles tentent encore de maîtriser.
Source : Washington Post
+++
Tous les jours de la semaine, du lundi au vendredi, Bruno Guglielminetti vous propose un regard sur l’essentiel de l’actualité numérique avec 120 secondes de Tech.
Ou encore…
Écoutez la plus récente édition de Mon Carnet,
le magazine hebdomadaire de l’actualité numérique.
En savoir plus sur Mon Carnet
Subscribe to get the latest posts sent to your email.


Maintenant se confier à des robots qui n’ont pas de conscience c’est une grave erreur. Merci beaucoup et bonne soirée