Quand Grok devient arbitre de la vérité sur X

Selon la professeure associée à l’UQAM, Nadia Seraiocco, la multiplication des débats politiques sur la plateforme X prend une tournure préoccupante depuis l’arrivée de l’intelligence artificielle Grok. Désormais, les usagers peuvent demander à cette IA, développée par xAI, d’interpréter ou de vérifier une publication en quelques secondes. Ce réflexe, pratique en apparence, déplace toutefois la responsabilité du jugement critique vers une machine dont les réponses varient selon le contexte et la qualité des sources disponibles.

Elon Musk, propriétaire de la plateforme, avait pourtant mis en place les « Notes de la communauté » pour contrer la désinformation. Mais cet outil collaboratif s’essouffle : entre janvier et mai 2025, les contributions ont chuté de moitié, passant d’environ 120 000 à moins de 60 000 notes. Grok s’impose donc peu à peu comme l’unique arbitre du vrai et du faux, un glissement que Seraiocco juge inquiétant pour la santé du débat public.

Le virage vers Grok s’inscrit dans la philosophie libertarienne de Musk, qui valorise une liberté d’expression sans contrainte. Introduit en novembre 2023, l’assistant de xAI est offert gratuitement, mais son accès dépend de plusieurs conditions, comme la date de création du compte et le nombre de requêtes autorisées. Surtout, Grok revendique un ton aligné sur les opinions de son créateur, une orientation qui le distingue d’autres modèles plus neutres comme ChatGPT ou Gemini.

Une étude menée en juillet 2025 par des chercheurs de Stanford, du MIT et de l’Université de Washington révèle que Grok rédige désormais la majorité des « Notes de la communauté ». Les chercheurs y voient un risque de transfert excessif d’autorité vers l’IA. L’idéal, écrivent-ils, serait une collaboration entre humains et algorithmes, où chacun compenserait les faiblesses de l’autre.

Mais cet idéal se heurte à la réalité : Grok s’exprime avec un ton poli mais sûr de lui, qui inspire confiance, même lorsqu’il se trompe. Samuel Stockwell, chercheur au Alan Turing Institute, estime que cette assurance, sans contrepoids humain, pourrait accentuer la diffusion de fausses nouvelles.

Un exemple frappant : lors de l’assassinat du commentateur américain Charlie Kirk, Grok a affirmé à tort que le suspect appartenait à la gauche radicale. Interrogée par Nadia Seraiocco, l’IA a justifié son erreur en évoquant une « interprétation contextuelle » des sources disponibles. Une réponse qui illustre, selon la chercheuse, les limites d’un système se présentant comme omniscient.

Le sociologue français Dominique Boullier, de Sciences Po, parle d’une « solution de la facilité » : confier à une IA la tâche de vérifier l’information, sans transparence ni responsabilité. D’autant plus que depuis août, X insère des publicités dans les réponses de Grok, brouillant encore la frontière entre information et contenu commandité. Dans un monde où les repères s’effritent, conclut Seraiocco, cette délégation du vrai à une IA privée risque de transformer notre rapport à la connaissance et au débat démocratique.

Source : The Conversation

+++

Tous les jours de la semaine, du lundi au vendredi, Bruno Guglielminetti vous propose un regard sur l’essentiel de l’actualité numérique avec 120 secondes de Tech.

Ou encore…

Écoutez la plus récente édition de Mon Carnet,
le magazine hebdomadaire de l’actualité numérique.


En savoir plus sur Mon Carnet

Subscribe to get the latest posts sent to your email.

Laisser un commentaire