Pentagone contre Anthropic : ultimatum de 72 heures autour de l’IA Claude

Le bras de fer entre le United States Department of Defense et Anthropic franchit un nouveau seuil. Le secrétaire à la Défense Pete Hegseth a donné à la jeune pousse californienne 72 heures pour lever les restrictions qui limitent l’usage militaire de son modèle d’intelligence artificielle Claude.

En cas de refus, le Pentagone menace d’invoquer le Defense Production Act, une loi adoptée en 1950 permettant au gouvernement de contraindre une entreprise privée à produire des biens ou services jugés essentiels à la défense nationale. Une autre option évoquée consisterait à classer Anthropic comme « risque pour la chaîne d’approvisionnement », une mesure habituellement réservée à des entreprises étrangères considérées comme sensibles.

Le différend porte sur les garde-fous intégrés par Anthropic à son modèle. L’entreprise, dirigée par Dario Amodei, refuse d’autoriser explicitement deux usages, la surveillance de masse sur le territoire américain et l’automatisation d’attaques létales. Ces limites s’inscrivent dans la « constitution » publiée par Anthropic début 2026, un document définissant les principes éthiques encadrant les réponses de Claude.

Selon des sources citées par Reuters, le Pentagone estime que le gouvernement n’a à se conformer qu’au droit américain existant et ne souhaite pas que des restrictions supplémentaires, définies par un fournisseur privé, limitent ses capacités opérationnelles. Les discussions interviennent alors que le département de la Défense négocie des contrats d’IA avec plusieurs acteurs, dont Google, OpenAI et xAI.

Jusqu’à récemment, Anthropic était le seul fournisseur de grands modèles de langage déployé sur certains réseaux classifiés. Cette semaine, le Pentagone a annoncé un accord avec xAI pour un déploiement similaire, signe d’une volonté de diversifier ses partenaires.

L’ultimatum fait suite à une rencontre entre Pete Hegseth et Dario Amodei destinée à désamorcer un conflit qui dure depuis plusieurs mois. Anthropic affirme poursuivre des discussions « de bonne foi » afin de soutenir la mission de sécurité nationale, tout en respectant les limites qu’elle juge nécessaires à une utilisation responsable.

En toile de fond, l’épisode révèle un changement d’équilibre dans la relation entre la Silicon Valley et Washington. Longtemps courtisées pour leur innovation, les jeunes entreprises d’IA se retrouvent désormais confrontées à des exigences stratégiques directes de l’État, dans un contexte où l’intelligence artificielle est perçue comme un levier déterminant de supériorité militaire.

Pour des juristes spécialisés en contrats publics, un recours à la Defense Production Act dans ce contexte serait inédit et pourrait ouvrir la voie à d’importants contentieux. Au-delà du cas Anthropic, l’affaire illustre une tension croissante entre impératifs de sécurité nationale et engagements éthiques des entreprises d’intelligence artificielle.

Source : Politico, New York Times, Guardian, NPR

******

Du lundi au vendredi, Bruno Guglielminetti vous propose un regard sur l’essentiel de l’actualité numérique avec 120 secondes de Tech.

Ou encore…

Écoutez la plus récente édition de Mon Carnet,
le magazine hebdomadaire de l’actualité numérique.


En savoir plus sur Mon Carnet

Subscribe to get the latest posts sent to your email.

Laisser un commentaire