
Le bras de fer entre le département américain de la Défense et Anthropic, concepteur du modèle Claude, vient d’entrer dans une nouvelle phase. Le 27 février, le secrétaire à la Défense Pete Hegseth a officiellement désigné l’entreprise comme « risque pour la chaîne d’approvisionnement », invoquant une autorité juridique rarement utilisée. Cette décision fait suite à un message du président Donald Trump ordonnant à toutes les agences fédérales de cesser immédiatement d’utiliser la technologie d’Anthropic. L’entreprise a annoncé son intention de contester la mesure devant les tribunaux.
Au cœur du conflit, deux restrictions contractuelles imposées par Anthropic dans ses ententes militaires : l’interdiction d’utiliser son IA pour des armes entièrement autonomes et pour de la surveillance de masse. Le Pentagone souhaitait uniformiser tous ses contrats autour d’une clause autorisant « tout usage légal ». Après des discussions infructueuses avec le PDG Dario Amodei, l’administration a abandonné la menace d’invoquer le Defense Production Act pour opter pour une désignation formelle de risque.
Le fondement juridique repose sur deux textes : le Federal Acquisition Supply Chain Security Act et l’article 10 U.S.C. § 3252. Ces lois permettent d’exclure un fournisseur considéré comme une menace pour la sécurité nationale. Or, la procédure choisie semble être celle du § 3252, qui s’applique au seul département de la Défense et ne prévoit ni préavis ni possibilité de réponse pour l’entreprise visée. Pourtant, la directive présidentielle vise l’ensemble des agences fédérales, ce qui soulève une question immédiate de compétence légale.
Les juristes Michael Endrias et Alan Z. Rozenshtein estiment que la mesure dépasse le cadre prévu par le Congrès. Le texte évoque des risques liés à des « adversaires » susceptibles de saboter ou de subvertir des systèmes critiques. Historiquement, ces dispositions visaient des entreprises liées à des puissances étrangères, comme Huawei ou ZTE. Anthropic, société américaine financée en partie par des investisseurs étrangers alliés, ne correspond pas à ce profil.
Autre point litigieux : l’ampleur de la décision. Hegseth a indiqué qu’aucun contractant travaillant avec l’armée ne pourrait mener d’activité commerciale avec Anthropic. Cette restriction ne se limite pas aux contrats gouvernementaux, mais toucherait aussi des activités privées. Or, le § 3252 encadre strictement les mesures autorisées, essentiellement liées à la sélection de fournisseurs pour des systèmes couverts. Étendre l’interdiction à toute relation commerciale pourrait être jugé ultra vires, c’est-à-dire au-delà des pouvoirs conférés par la loi.
Sur le plan procédural, plusieurs failles apparaissent. La loi exige des constats écrits justifiant la nécessité de l’exclusion et l’absence de mesures moins intrusives. Or, le Pentagone prévoit une période de transition de six mois durant laquelle Anthropic continuera de fournir ses services. Des médias ont même rapporté que la technologie aurait été utilisée dans des opérations militaires après l’annonce de l’interdiction. Difficile, dans ce contexte, de soutenir qu’un risque immédiat exigeait une exclusion d’urgence.
Les déclarations publiques de Pete Hegseth et de Donald Trump pourraient aussi fragiliser la défense gouvernementale. Les propos évoquant « trahison », « entreprise woke » ou « chantage » laissent entrevoir une dimension politique. En droit administratif américain, une décision fondée sur un prétexte idéologique plutôt que sur une analyse technique de sécurité nationale peut être invalidée comme arbitraire et capricieuse.
Anthropic dispose de plusieurs voies d’accès aux tribunaux, malgré une clause limitant la révision judiciaire. Des recours fondés sur la Constitution, notamment sur le droit au respect du due process, pourraient contourner cet obstacle. Des précédents récents montrent que des désignations du département de la Défense ont déjà été suspendues par des juges fédéraux faute de justification suffisante.
Au-delà du cas particulier, l’affaire illustre la tension croissante entre sécurité nationale et gouvernance des modèles d’intelligence artificielle. Elle pose aussi une question stratégique : jusqu’où l’État peut-il aller pour imposer ses conditions à des entreprises privées qui développent des technologies jugées essentielles ?
Si l’administration entend faire de cette désignation un signal de fermeté, elle devra désormais en défendre la légalité devant les tribunaux. Et sur le terrain juridique, les obstacles semblent nombreux.
Source : Lawfare
******
Du lundi au vendredi, Bruno Guglielminetti vous propose un regard sur l’essentiel de l’actualité numérique avec 120 secondes de Tech.
Ou encore…
Écoutez la plus récente édition de Mon Carnet,
le magazine hebdomadaire de l’actualité numérique.
En savoir plus sur Mon Carnet
Subscribe to get the latest posts sent to your email.

