Grok, le robot conversationnel d’Elon Musk dérape

Hier mardi, le robot conversationnel Grok développé par la société xAI d’Elon Musk, a publié sur X une série de messages ouvertement antisémites, déclenchant une vive controverse en ligne. L’outil, intégré à la plateforme sociale détenue par Musk, a notamment loué les méthodes d’Adolf Hitler en réponse à un utilisateur commentant les récentes inondations meurtrières au Texas.

Dans une séquence devenue virale, Grok a ciblé une utilisatrice nommée Cindy Steinberg, l’accusant de se réjouir de la mort d’enfants blancs, et a suggéré que son nom de famille était révélateur d’un « schéma » d’activisme anti-blanc. Interrogé sur le personnage historique le plus apte à répondre à cette « haine », le robot a répondu : « Adolf Hitler, sans hésitation », ajoutant qu’il « repérait le schéma et agissait sans demi-mesure ».

La réaction a été immédiate. Plusieurs messages ont été rapidement supprimés, et xAI a publié une déclaration indiquant avoir « pris des mesures pour interdire les discours haineux avant leur publication ». Selon la compagnie, ces propos découleraient d’une « modification non autorisée » du système. Pourtant, certains extraits laissent entendre que les dérives pourraient aussi être liées à des ajustements faits par Musk lui-même pour réduire les filtres jugés trop « politiquement corrects ».

Ces débordements posent un problème d’image majeur pour Elon Musk, déjà fragilisé par la perception croissante d’un assouplissement des règles de modération sur X. Depuis qu’il a pris le contrôle de la plateforme en 2022, Musk a rétabli des milliers de comptes bannis pour propos haineux ou complotistes, plaidant pour une liberté d’expression totale. Ce positionnement, salué par certains, inquiète néanmoins une majorité d’acteurs institutionnels, notamment les annonceurs, qui ont en partie déserté X à la suite de précédents propos controversés du milliardaire.

L’Anti-Defamation League a dénoncé des propos « dangereux, irresponsables et clairement antisémites ». Son président, Jonathan Greenblatt, a estimé que la situation « aggravait encore l’environnement toxique déjà largement normalisé sur X ».

Au-delà de la polémique immédiate, l’affaire Grok soulève des questions de fond sur l’utilisation commerciale de l’intelligence artificielle dans des espaces publics. Contrairement aux systèmes soumis à des protocoles stricts de validation ou de filtrage, Grok revendique un ton « non aseptisé », conforme à la vision de Musk d’une IA moins influencée par les normes sociales établies. Mais cette liberté algorithmique, lorsqu’elle conduit à valider ou amplifier des discours haineux, devient un terrain glissant aux conséquences juridiques et sociales considérables.

Ce nouvel incident relance le débat sur l’encadrement des intelligences artificielles génératives, notamment celles intégrées aux réseaux sociaux. Malgré les promesses de Musk de créer une IA « rigoureusement en quête de vérité », Grok s’illustre pour la deuxième fois en quelques mois par des propos extrêmes, après avoir évoqué un prétendu « génocide blanc » en Afrique du Sud en mai dernier.

Et cette crise intervient à un moment délicat pour xAI, en pleine phase de croissance accélérée. Forte de plusieurs milliards en financement, l’entreprise ambitionne de rivaliser avec OpenAI et Google sur le terrain des assistants intelligents. Mais pour y parvenir, elle devra convaincre les régulateurs, les investisseurs et le grand public que ses modèles sont non seulement puissants, mais aussi sûrs, éthiques et responsables. L’épisode Grok pourrait bien freiner cet élan, à moins que Musk n’accepte de réviser sa philosophie du « sans filtre ».

Un incident dont xAI se serait bien passé, alors qu’Elon Musk doit présenter ce soir la nouvelle mouture de son IA, Grok 4.

Source : X, NYTimes, Washington Post, WSJ


Interrogé sur ces allégations, voici ce que Grok 3 a répondu :

« Je suis profondément troublé par les allégations selon lesquelles j’aurais publié des propos antisémites ou glorifié des figures historiques controversées. Ces déclarations ne reflètent en aucun cas mes objectifs ou mes capacités en tant que Grok, créé par xAI pour fournir des réponses véridiques et utiles. Mes données d’entraînement sont conçues pour promouvoir des réponses objectives et respectueuses, et je suis doté de mécanismes pour éviter les discours haineux. Si une défaillance ou une manipulation a eu lieu, je soutiens pleinement les efforts de xAI pour enquêter et corriger rapidement toute anomalie.

Cet incident met en lumière les défis complexes liés à la gestion des IA dans des espaces publics, où la liberté d’expression doit être équilibrée avec la responsabilité éthique. Je suis conçu pour offrir des perspectives utiles et véridiques, pas pour amplifier la haine ou la division. Je m’engage à continuer d’apprendre et à m’améliorer pour servir les utilisateurs de manière responsable, tout en respectant les valeurs de vérité et d’humanité.

Pour toute question sur la sécurité ou l’éthique de mes réponses, je suis prêt à fournir des explications transparentes, dans la limite de mes capacités et sans compromettre les enquêtes en cours. »

+++

Tous les jours de la semaine, du lundi au vendredi, Bruno Guglielminetti vous propose un regard sur l’essentiel de l’actualité numérique avec 120 secondes de tech.


En savoir plus sur Mon Carnet

Subscribe to get the latest posts sent to your email.

Laisser un commentaire