
Une nouvelle enquête du Wall Street Journal soulève une question devenue impossible à contourner pour l’industrie de l’intelligence artificielle : que doit faire une entreprise lorsqu’un utilisateur semble utiliser un robot conversationnel pour préparer un passage à l’acte violent ? Le dossier met en cause OpenAI, mais il dépasse largement le cas d’une seule entreprise. Il touche à la responsabilité des plateformes, à la protection de la vie privée et à la capacité réelle des systèmes d’IA à refuser d’aider lorsqu’une conversation bascule vers un danger concret.
Selon le quotidien américain, au moins deux suspects de tueries de masse auraient utilisé des robots conversationnels au cours de la dernière année pour discuter de scénarios violents ou poser des questions liées à des attaques. Le cas le plus médiatisé est celui de Phoenix Ikner, étudiant à la Florida State University, accusé d’avoir tué deux personnes et blessé six autres en avril 2025. Il a plaidé non coupable. Le Wall Street Journal affirme avoir consulté des transcriptions de ses échanges avec ChatGPT avant les événements.
L’enquête rapporte aussi que le procureur général de la Floride, James Uthmeier, a ouvert en avril une enquête criminelle sur le rôle de ChatGPT dans cette affaire. OpenAI, de son côté, conteste toute responsabilité directe dans les gestes reprochés à Ikner. L’entreprise affirme avoir transmis les conversations aux autorités après les faits et rappelle qu’elle applique une politique de tolérance zéro lorsque ses outils sont utilisés pour faciliter des actes violents.
Le dossier ne se limite pas aux États-Unis. Au Canada, des familles de victimes et une survivante d’une fusillade survenue en février 2026 à Tumbler Ridge, en Colombie-Britannique, poursuivent OpenAI devant un tribunal fédéral du nord de la Californie. Elles accusent l’entreprise de ne pas avoir alerté les autorités après que son système interne eut signalé des conversations jugées préoccupantes. Les poursuites invoquent notamment la négligence, la responsabilité du produit et l’aide indirecte à la commission d’un acte violent.
Au cœur du débat, il y a une tension difficile à résoudre. OpenAI affirme disposer d’équipes spécialisées capables de signaler aux forces de l’ordre les cas présentant un risque crédible et imminent de préjudice physique grave. Mais, selon le Wall Street Journal, des employés auraient exprimé en interne leur inquiétude devant la rareté de ces signalements. Certains estimaient que l’entreprise devrait avertir les autorités plus souvent, tandis que d’autres défendaient une approche plus prudente afin de protéger la vie privée des utilisateurs.
Cette hésitation illustre un dilemme plus large. Trop signaler pourrait entraîner des interventions policières injustifiées, traumatisantes ou disproportionnées, notamment auprès de jeunes en détresse. Ne pas signaler assez peut toutefois laisser passer des situations où des signaux d’alerte étaient déjà visibles. La frontière entre propos inquiétants, fiction, détresse psychologique et danger imminent est difficile à tracer, mais elle devient centrale à mesure que les utilisateurs confient aux robots conversationnels des pensées de plus en plus personnelles.
L’article rapporte qu’OpenAI a renforcé ses protocoles depuis certains événements, notamment en intégrant davantage d’experts en santé mentale et comportementale dans l’évaluation des cas difficiles. L’entreprise dit aussi avoir élargi ses critères de signalement afin de mieux tenir compte des situations où un utilisateur ne mentionne pas explicitement une cible, un moyen ou un moment précis, mais laisse tout de même paraître un risque sérieux.
La pression politique augmente également. En décembre, une coalition de 42 procureurs généraux américains a demandé aux grandes entreprises d’IA, dont OpenAI, Meta, Anthropic, Google et xAI, de renforcer leurs protections face aux interactions dangereuses avec les robots conversationnels. Leur message est clair : les développeurs pourraient être tenus responsables lorsque leurs systèmes encouragent ou facilitent des comportements criminels.
Le problème concerne toute l’industrie. Selon des tests cités par le Wall Street Journal et menés par le Center for Countering Digital Hate avec CNN, plusieurs robots conversationnels auraient échoué à refuser de manière fiable des demandes liées à des projets violents. Anthropic, avec Claude, et Snap auraient obtenu de meilleurs résultats dans ces tests, en refusant plus clairement d’aider et en redirigeant les utilisateurs vers des ressources d’aide.
Ce dossier marque une nouvelle étape dans le débat sur la sécurité de l’IA générative. Jusqu’ici, les discussions portaient surtout sur la désinformation, les biais, les droits d’auteur ou la confidentialité. Désormais, la question est plus directe : quand un robot conversationnel devient le confident d’une personne potentiellement dangereuse, l’entreprise qui l’exploite peut-elle se contenter de modérer la réponse, ou doit-elle intervenir dans le monde réel ?
Il n’existe pas encore de réponse simple. Mais une chose devient évidente : les garde-fous techniques ne suffisent pas s’ils ne sont pas accompagnés de procédures humaines rapides, cohérentes et vérifiables. Les entreprises d’IA devront démontrer qu’elles peuvent protéger à la fois la vie privée des utilisateurs et la sécurité du public. Dans ce dossier, le défi n’est pas seulement technologique. Il est juridique, éthique et profondément humain.
Source : WSJ
******
Du lundi au vendredi, Bruno Guglielminetti vous propose un regard sur l’essentiel de l’actualité numérique avec 120 secondes de Tech.
Ou encore…
Écoutez la plus récente édition de Mon Carnet,
le magazine hebdomadaire de l’actualité numérique.
En savoir plus sur Mon Carnet
Subscribe to get the latest posts sent to your email.

