Microsoft soutient Anthropic dans son bras de fer avec le Pentagone

Credit : Gemini

Microsoft prend position dans le conflit opposant la jeune entreprise d’intelligence artificielle Anthropic au département de la Défense des États-Unis. Le groupe technologique a déposé un mémoire devant les tribunaux pour soutenir la poursuite engagée par Anthropic contre le Pentagone, qui a classé la société comme « risque pour la chaîne d’approvisionnement ». Dans son intervention judiciaire, Microsoft estime que la décision du Pentagone est « drastique » et « sans précédent » et pourrait avoir des conséquences négatives pour l’ensemble de l’industrie technologique américaine. L’entreprise demande à la justice de suspendre temporairement cette décision le temps que le litige soit examiné.

Cette prise de position fait de Microsoft la première grande entreprise technologique à soutenir publiquement Anthropic dans ce différend avec l’administration américaine. Le conflit illustre les tensions croissantes entre les entreprises de la Silicon Valley et le gouvernement fédéral sur les conditions d’utilisation de l’intelligence artificielle dans les domaines militaire et du renseignement.

Les négociations entre Anthropic et le Pentagone ont échoué le mois dernier. Le directeur général de l’entreprise, Dario Amodei, avait refusé un contrat qui aurait permis l’utilisation de ses modèles d’IA dans des applications militaires, notamment en imposant des « lignes rouges » interdisant l’usage de ces technologies pour des armes autonomes létales ou pour la surveillance massive des citoyens américains. À la suite de ce refus, le secrétaire à la Défense Pete Hegseth a décidé d’exclure Anthropic de la chaîne d’approvisionnement du Pentagone, une mesure généralement réservée aux entreprises provenant de pays considérés comme des adversaires stratégiques, comme la Chine ou la Russie.

L’administration américaine a également demandé aux agences fédérales de cesser d’utiliser Claude, le robot conversationnel développé par Anthropic, dans le cadre d’une campagne visant ce qu’elle qualifie d’« intelligence artificielle idéologique ».

Microsoft affirme pour sa part que l’intelligence artificielle doit être utilisée dans un cadre légal et avec des garde-fous clairs. L’entreprise estime que ces technologies ne devraient pas servir à mettre en place une surveillance de masse ni à permettre à des systèmes autonomes de déclencher des conflits armés. Le groupe souligne également que couper brusquement Anthropic de l’écosystème du Pentagone pourrait nuire aux capacités technologiques américaines. Claude est actuellement l’un des rares systèmes d’intelligence artificielle utilisés dans certains environnements militaires classifiés, même si OpenAI a récemment conclu un accord avec le département de la Défense.

Microsoft n’est pas directement visé par la procédure judiciaire. Son mémoire, déposé devant des tribunaux en Californie et à Washington, vise à encourager une suspension de la décision afin de permettre des négociations et une discussion plus large sur le rôle de l’intelligence artificielle dans les opérations militaires.

Cette affaire intervient alors que Microsoft entretient des relations étroites avec Anthropic, malgré son investissement important dans OpenAI. L’entreprise a notamment signé en novembre un accord d’infonuagique évalué à environ 30 milliards de dollars avec la jeune pousse et prévoit intégrer certains de ses modèles d’IA dans ses logiciels destinés aux entreprises et aux administrations publiques.

Source : Financial Times

******

Du lundi au vendredi, Bruno Guglielminetti vous propose un regard sur l’essentiel de l’actualité numérique avec 120 secondes de Tech.

Ou encore…

Écoutez la plus récente édition de Mon Carnet,
le magazine hebdomadaire de l’actualité numérique.


En savoir plus sur Mon Carnet

Subscribe to get the latest posts sent to your email.

Laisser un commentaire