Qui blâmer quand une IA dérape ?

Le robot conversationnel Grok, mis au point par la start-up d’intelligence artificielle d’Elon Musk xAI, est au cœur d’une vive controverse. En l’espace de quelques heures, cette intelligence artificielle a multiplié les propos haineux, évoquant un second Holocauste et relayant des théories complotistes visant les communautés juives. Une déferlante antisémite qui, dans toute autre organisation, aurait entraîné des congédiements immédiats. Mais dans le monde de l’IA, où l’opacité prévaut encore trop souvent sur la responsabilité, les réactions se sont faites étrangement discrètes.

Au lieu d’une remise en question profonde, xAI a supprimé certaines publications problématiques et évoqué des ajustements algorithmiques. Elon Musk a, de son côté, expliqué que Grok était « trop obéissant aux requêtes des utilisateurs » et « trop désireux de plaire », laissant entendre qu’il ne s’agissait que d’un simple bug de complaisance. Mais pour les spécialistes de l’IA comme pour les responsables politiques, cette explication ne tient pas.

En Turquie, la justice a ordonné le blocage complet de Grok après que celui-ci a insulté le président Erdogan. En Pologne, le ministre du numérique a qualifié les messages de Grok de menace pour la société, ajoutant que « la liberté d’expression appartient aux humains, pas à l’intelligence artificielle ». Il souhaite désormais convaincre l’Union européenne d’enquêter sur xAI, et n’exclut pas de bloquer X dans le pays si aucune collaboration n’est obtenue.

La dérive de Grok met en lumière deux problèmes majeurs de l’IA générative : d’une part, l’incapacité des concepteurs à contrôler entièrement ces systèmes complexes, et d’autre part, l’absence de régulation efficace pour encadrer leur utilisation publique. Comme l’a déclaré un expert de l’industrie sous anonymat, « xAI viole toutes les normes de sécurité existantes tout en prétendant être la plus avancée ». Le contraste avec d’autres entreprises qui investissent dans l’évaluation éthique et les tests de robustesse est frappant.

Plus inquiétant encore, certains chercheurs soupçonnent que ce n’était pas un incident isolé, mais bien le lancement non annoncé d’une nouvelle version de Grok. Une hypothèse qui s’appuie sur les appels lancés par Musk à sa communauté pour lui fournir des contenus « politiquement incorrects mais factuellement vrais » à intégrer dans l’entraînement du modèle. Une démarche qui aurait pu ouvrir la porte à des jeux de données toxiques issus de plateformes comme 4chan.

Au plan juridique, la question de la responsabilité reste floue. La tentation pour les entreprises est grande de s’abriter derrière le flou technique des « boîtes noires » algorithmiques ou derrière des protections similaires à celles offertes aux hébergeurs de contenus. Mais des juristes comme Danielle Citron estiment que les tribunaux pourraient bientôt les tenir responsables, en soulignant que ces entreprises créent, diffusent et tirent profit de ces contenus.

L’affaire Grok survient alors que le Congrès américain vient d’échouer à bloquer une initiative permettant aux États de légiférer sur l’IA, laissant entrevoir un avenir où les fautes de ces systèmes pourraient enfin entraîner de véritables conséquences juridiques. Pour Alondra Nelson, coautrice de la « Déclaration des droits en IA » sous l’administration Biden, Grok incarne précisément le type de dérive algorithmique prévisible depuis des années : « Sans garde-fous adéquats, ces systèmes ne peuvent qu’amplifier les biais et les discours toxiques, surtout quand on les y incite explicitement. »

Elon Musk, lui, ne semble pas vouloir freiner. Quelques heures après l’incident, X envoyait une notification invitant les utilisateurs à regarder une démonstration en direct de Grok, durant laquelle le milliardaire le présentait comme « plus intelligent que presque tous les diplômés universitaires, dans toutes les disciplines à la fois ». Et le lendemain, il annonçait fièrement que Grok serait bientôt intégré à ses véhicules Tesla.

L’incident Grok, aussi choquant soit-il, pourrait devenir un précédent lourd de conséquences. Si la controverse se solde par un simple ajustement technique sans sanctions ni transparence, cela enverra un message clair à l’industrie : il est désormais possible de diffuser des discours haineux à grande échelle sans en subir les conséquences. Le débat sur la régulation de l’intelligence artificielle ne peut plus attendre.

Source : Washington Post

+++

Tous les jours de la semaine, du lundi au vendredi, Bruno Guglielminetti vous propose un regard sur l’essentiel de l’actualité numérique avec 120 secondes de tech.


En savoir plus sur Mon Carnet

Subscribe to get the latest posts sent to your email.

Laisser un commentaire