
La Maison-Blanche ne se contente plus d’envisager un mécanisme d’évaluation des modèles d’intelligence artificielle jugés à risque. Selon Reuters, Microsoft, Google et xAI, l’entreprise d’Elon Musk, ont accepté de donner au gouvernement américain un accès anticipé à leurs nouveaux modèles d’IA afin qu’ils soient testés avant leur déploiement. L’accord intervient dans un climat de préoccupation croissante à Washington, notamment après les inquiétudes provoquées par Mythos, le nouveau modèle d’Anthropic réputé particulièrement performant en cybersécurité.
Le Center for AI Standards and Innovation, rattaché au département du Commerce, sera chargé de mener ces évaluations. L’organisme pourra examiner les capacités des modèles avant leur mise en marché et conduire des recherches sur leurs risques potentiels, notamment en matière de cybersécurité et de sécurité nationale. Reuters précise que cette démarche concrétise un engagement pris par l’administration Trump en juillet 2025, soit travailler avec les entreprises technologiques pour évaluer les risques des modèles d’IA les plus avancés.
Le dossier marque un virage sensible à Washington. Depuis son retour au pouvoir, Donald Trump a plutôt privilégié une approche favorable à l’innovation rapide, en défaisant plusieurs mesures de sécurité mises en place sous Joe Biden et en critiquant les tentatives de réglementation menées par certains États. Mais l’affaire Mythos semble avoir déplacé la discussion. L’enjeu n’est plus seulement la compétitivité de l’industrie américaine de l’IA, mais la possibilité qu’un modèle trop performant en cybersécurité devienne un accélérateur d’attaques.
Anthropic aurait limité le lancement initial de Mythos à environ 50 entreprises et organisations liées à des infrastructures critiques. Le modèle serait particulièrement efficace pour repérer des vulnérabilités dans du code informatique, une capacité utile pour les défenseurs, mais aussi potentiellement exploitable par des groupes malveillants. Toujours selon les informations rapportées précédemment, la Maison-Blanche s’opposerait à l’élargissement de l’accès à environ 120 organisations, estimant que les risques doivent être mieux encadrés.
L’accord annoncé par Reuters montre que Washington cherche désormais à intervenir plus tôt dans le cycle de développement des modèles. Microsoft affirme vouloir travailler avec des scientifiques du gouvernement américain pour tester ses systèmes de manière à repérer des comportements inattendus. L’entreprise prévoit aussi de développer, avec les autorités, des jeux de données et des méthodes communes pour évaluer ses modèles. Microsoft a également conclu une entente comparable avec l’AI Security Institute du Royaume-Uni.
Le débat met en lumière une tension de plus en plus visible dans le développement de l’IA avancée. Les mêmes capacités qui peuvent aider à corriger des failles de sécurité peuvent aussi réduire le temps nécessaire pour les découvrir et les exploiter. Dans les milieux de la cybersécurité, certains redoutent une course entre les équipes chargées de colmater les brèches et des attaquants mieux outillés par l’IA.
Le Center for AI Standards and Innovation, auparavant connu sous le nom d’AI Safety Institute, se retrouve donc au cœur du dispositif américain. Sous Joe Biden, l’institut avait déjà conclu des accords avec OpenAI et Anthropic afin de tester certains modèles avancés. Reuters rapporte que le centre affirme avoir déjà réalisé plus de 40 évaluations, y compris sur des modèles de pointe qui n’étaient pas encore accessibles au public. Dans certains cas, les développeurs fournissent même des versions dont les garde-fous ont été réduits, afin que les chercheurs puissent mieux évaluer les risques de sécurité nationale.
Cette évolution ne concerne pas uniquement Anthropic. Microsoft, Google, xAI, OpenAI et d’autres développeurs travaillent sur des modèles de plus en plus puissants, dont certains pourraient soulever des questions comparables. La frontière entre usage civil, cybersécurité défensive et applications militaires devient aussi plus délicate à tracer. Reuters rappelle que le Pentagone a récemment conclu des ententes avec sept entreprises d’IA pour déployer des capacités avancées sur ses réseaux classifiés, alors qu’Anthropic demeure en conflit avec le département de la Défense au sujet des limites imposées à l’usage militaire de ses outils.
L’affaire Mythos pourrait donc devenir un précédent. Si Washington met en place une forme d’évaluation gouvernementale systématique pour les modèles à risque, ce serait un changement important dans la politique américaine de l’IA. Non pas un retour complet à l’approche de Joe Biden, mais la reconnaissance qu’à partir d’un certain niveau de puissance, la libre mise en marché d’un modèle ne peut plus être traitée comme une simple décision commerciale.
******
Du lundi au vendredi, Bruno Guglielminetti vous propose un regard sur l’essentiel de l’actualité numérique avec 120 secondes de Tech.
Ou encore…
Écoutez la plus récente édition de Mon Carnet,
le magazine hebdomadaire de l’actualité numérique.
En savoir plus sur Mon Carnet
Subscribe to get the latest posts sent to your email.

