
L’affaire en dit long sur les contradictions qui accompagnent déjà l’intelligence artificielle dans les cercles du pouvoir américain. Selon Axios, repris par Reuters, la National Security Agency utilise le modèle Mythos Preview d’Anthropic, pourtant au cœur d’un conflit ouvert avec le Pentagone, qui a officiellement classé l’entreprise comme un « Risque pour la chaîne d’approvisionnement » en mars.
Le paradoxe est frappant. D’un côté, le département de la Défense soutient devant les tribunaux qu’Anthropic représente un risque pour la sécurité nationale. De l’autre, certaines composantes de l’appareil sécuritaire américain continuent manifestement de s’appuyer sur ses outils les plus avancés. Rappel : le 5 mars dernier, cette désignation interdisait agences et sous-traitants gouvernementaux d’utiliser la technologie d’Anthropic dans leurs contrats liés au Pentagone.
Pourquoi un tel revirement de fait? Parce que Mythos n’est pas un modèle ordinaire. Anthropic le présente comme son système le plus performant à ce jour pour le code et les tâches agentiques. L’entreprise affirme qu’il est particulièrement redoutable pour repérer et exploiter des failles de sécurité, au point de ne pas le rendre accessible au grand public pour l’instant. Dans sa documentation technique, Anthropic explique que Mythos a déjà permis d’identifier des milliers de vulnérabilités sérieuses, y compris dans les grands systèmes d’exploitation et navigateurs.
Autrement dit, ce qui inquiète Washington est aussi ce qui l’attire. Un modèle capable d’automatiser la détection de failles, de reproduire des vulnérabilités et parfois même de proposer des correctifs représente un atout stratégique évident pour une agence comme la NSA. Anthropic précise d’ailleurs avoir étendu l’accès à Mythos à plus de 40 organisations chargées de bâtir ou maintenir des infrastructures logicielles critiques, dans le cadre de son initiative défensive Project Glasswing.
Cette affaire révèle surtout une ligne de fracture plus profonde entre l’industrie de l’IA et l’appareil militaire américain. Le différend entre Anthropic et le Pentagone porte notamment sur les usages permis. Le département de la Défense exigeait un accès pour “any lawful use”, alors qu’Anthropic voulait conserver des garde-fous contre la surveillance de masse sur le territoire américain et contre l’usage de ses modèles pour des armes entièrement autonomes. C’est ce désaccord qui a mené à la désignation de risque, puis aux poursuites judiciaires intentées par l’entreprise.
Entre-temps, le dialogue politique semble reprendre ailleurs à Washington. Dario Amodei, patron d’Anthropic, a rencontré à la Maison-Blanche la cheffe de cabinet Susie Wiles et le secrétaire au Trésor Scott Bessent afin de discuter de Mythos, de ses capacités offensives et défensives, et d’un éventuel usage gouvernemental plus large. Le simple fait que ces discussions aient lieu montre qu’au-delà du bras de fer avec le Pentagone, l’administration américaine ne veut pas se priver d’un outil jugé stratégique dans la course à la cybersécurité.
Cette histoire résume bien le dilemme actuel autour de l’IA avancée. Les autorités américaines veulent encadrer, ralentir ou interdire certains usages au nom de la sécurité. Mais dès qu’un outil semble offrir un avantage défensif, surtout dans le domaine cybersécurité, la tentation de l’utiliser devient difficile à écarter. Dans le cas de Mythos, Washington semble déjà vivre avec cette contradiction : traiter Anthropic comme un fournisseur litigieux tout en reconnaissant, en pratique, que ses modèles sont peut-être trop puissants pour être ignorés.
Source : Axios, Reuters, The Decoder
******
Du lundi au vendredi, Bruno Guglielminetti vous propose un regard sur l’essentiel de l’actualité numérique avec 120 secondes de Tech.
Ou encore…
Écoutez la plus récente édition de Mon Carnet,
le magazine hebdomadaire de l’actualité numérique.

