
Jusqu’à la dernière minute, les dirigeants d’Anthropic pensaient pouvoir conclure un accord avec le département américain de la Défense. Leur modèle Claude était alors le seul système d’intelligence artificielle autorisé à opérer dans des environnements classifiés du gouvernement fédéral. Mais la négociation a basculé lorsque le secrétaire à la Défense Pete Hegseth a exigé la renégociation de clauses éthiques intégrées au contrat initial.
Selon des informations rapportées par Ross Andersen dans The Atlantic le 1er mars 2026, le Pentagone souhaitait assouplir deux engagements majeurs. Le premier concernait l’interdiction d’utiliser l’IA pour la surveillance de masse sur le territoire américain. Le second portait sur l’emploi de modèles d’IA dans des systèmes d’armes entièrement autonomes, capables de sélectionner et d’engager une cible sans validation humaine finale.
Un compromis semblait possible lorsque l’administration a accepté de retirer certaines formulations jugées ambiguës, notamment des expressions laissant place à des interprétations futures. Mais un point est resté bloquant : la volonté du Pentagone d’utiliser l’IA d’Anthropic pour analyser des volumes massifs de données collectées sur des citoyens américains, incluant historiques de recherche, déplacements géolocalisés ou transactions financières croisées. Pour Anthropic, cette utilisation franchissait une limite.
Le différend s’est également cristallisé autour des armes autonomes. Le département de la Défense investit massivement dans ces technologies, avec un budget annoncé de 13,4 milliards de dollars pour l’exercice 2026. Anthropic ne s’opposait pas au principe de ces systèmes et se disait prête à améliorer leur fiabilité. L’argument avancé était pragmatique : comme pour les véhicules autonomes, une machine pourrait un jour réduire les erreurs humaines. Mais, à ce stade, l’entreprise estimait que ses modèles n’avaient pas atteint un niveau de maturité suffisant pour garantir l’absence de tirs indiscriminés ou de dommages collatéraux.
Une solution intermédiaire a été envisagée : maintenir l’IA dans le nuage informatique et l’exclure des systèmes embarqués sur le terrain. Les modèles auraient pu analyser le renseignement en amont, sans participer directement à la décision de tir. Anthropic a finalement rejeté cette distinction, jugeant que la frontière entre le nuage et les systèmes déployés au combat devient de plus en plus floue. Les architectures militaires modernes reposent sur des réseaux maillés où les drones et les centres de données restent interconnectés. Sur le plan éthique, la distance géographique ne change pas la nature de la décision.
La rupture du contrat a été suivie d’une directive invitant les partenaires et fournisseurs du Pentagone à cesser leurs relations avec Anthropic, ce qui pourrait affecter des acteurs majeurs de l’infrastructure infonuagique. Quelques heures plus tard, OpenAI annonçait un nouvel accord avec la Défense américaine, précisant que ses modèles seraient déployés uniquement dans le nuage. Cette annonce a suscité des interrogations internes : près d’une centaine d’employés auraient signé une lettre ouverte exprimant leur soutien aux lignes rouges défendues par Anthropic.
Au-delà du cas particulier, cet épisode illustre une tension croissante entre innovation militaire et gouvernance de l’intelligence artificielle. Les entreprises du secteur ne débattent plus seulement de performances ou de parts de marché, mais du périmètre moral de leurs technologies. La question n’est plus seulement de savoir ce que l’IA peut faire, mais ce qu’elle doit refuser de faire.
Source : The Atlantic
******
Du lundi au vendredi, Bruno Guglielminetti vous propose un regard sur l’essentiel de l’actualité numérique avec 120 secondes de Tech.
Ou encore…
Écoutez la plus récente édition de Mon Carnet,
le magazine hebdomadaire de l’actualité numérique.
En savoir plus sur Mon Carnet
Subscribe to get the latest posts sent to your email.

