
À peine 24 heures après avoir inscrit Anthropic sur une liste noire fédérale, l’administration de Donald Trump aurait utilisé la technologie de l’entreprise lors d’une opération militaire majeure en Iran. Selon le Wall Street Journal, des outils comme Claude, le robot conversationnel développé par Anthropic, sont intégrés aux systèmes de plusieurs commandements américains, dont le U.S. Central Command, pour l’analyse du renseignement, l’identification de cibles et la simulation de scénarios de combat.
Le paradoxe est frappant. Vendredi, la Maison-Blanche ordonnait aux agences fédérales de cesser toute collaboration avec Anthropic, invoquant un risque pour la chaîne d’approvisionnement et la sécurité nationale. Quelques heures plus tard, ces mêmes outils auraient contribué à appuyer une offensive aérienne au Moyen-Orient. Le Pentagone n’a pas commenté l’usage précis des systèmes, mais des sources citées par le Journal confirment leur déploiement opérationnel.
Au cœur du conflit, une divergence profonde sur les usages militaires de l’intelligence artificielle. Anthropic, dirigée par Dario Amodei, a refusé d’accorder au département de la Défense un accès sans restriction à ses modèles pour « tous les scénarios légaux ». L’entreprise a tracé deux lignes rouges : l’interdiction de la surveillance de masse de citoyens américains et le refus d’armes entièrement autonomes sans supervision humaine. Des conditions qui ont été perçues à Washington comme une tentative d’imposer des limites politiques à l’appareil militaire.
Et face à ce refus, le secrétaire à la Défense Peter Hegseth a annoncé qu’Anthropic serait considérée comme un risque pour la sécurité nationale. Il a toutefois précisé que la société continuerait à fournir ses services au département de la Défense pendant une période maximale de six mois afin de permettre une transition vers d’autres fournisseurs.
Le président Donald Trump a dénoncé publiquement la position d’Anthropic, tandis que des responsables du Pentagone ont accusé son dirigeant d’arrogance et d’ingérence. Pourtant, selon des déclarations rapportées, un accord conclu peu après entre le Pentagone et Sam Altman, patron d’OpenAI, inclurait des garde-fous comparables. Ce décalage suggère que le différend dépasse la seule question technique des usages autorisés.
Les tensions remontent à plusieurs mois. David Sacks, conseiller de la Maison-Blanche en matière d’IA, accuse Anthropic de promouvoir une régulation excessive susceptible de freiner l’innovation américaine face à la Chine et à la Russie. De son côté, Amodei plaide pour un encadrement strict, estimant que l’IA représente un risque civilisationnel et qu’elle ne doit pas devenir un instrument de concentration du pouvoir étatique.
Dans les faits, l’armée américaine dépend déjà largement de ces outils. Des experts cités par le Journal estiment qu’il faudra plusieurs mois pour remplacer Claude par des solutions concurrentes, notamment celles d’OpenAI ou de xAI. Des partenaires comme Palantir intègrent également ces modèles dans leurs systèmes, rendant toute transition complexe.
Au-delà du bras de fer politique, cette séquence met en lumière une réalité plus large : l’intelligence artificielle est désormais profondément imbriquée dans les opérations militaires contemporaines. L’affaire soulève une question stratégique pour Washington comme pour ses alliés, dont le Canada : peut-on se permettre d’exclure un acteur technologique clé pour des raisons politiques, alors même que ses outils sont déjà intégrés au cœur des capacités de défense ?
Source : WSJ
******
Du lundi au vendredi, Bruno Guglielminetti vous propose un regard sur l’essentiel de l’actualité numérique avec 120 secondes de Tech.
Ou encore…
Écoutez la plus récente édition de Mon Carnet,
le magazine hebdomadaire de l’actualité numérique.
En savoir plus sur Mon Carnet
Subscribe to get the latest posts sent to your email.

