
OpenAI et Amazon Web Services ouvrent un nouveau chapitre dans la bataille du nuage informatique. À travers une offre appelée Bedrock Managed Agents, powered by OpenAI, les deux entreprises veulent permettre aux organisations d’utiliser les modèles d’OpenAI dans un environnement AWS, avec des agents IA mieux intégrés aux systèmes internes, aux permissions, aux données et aux règles de sécurité des entreprises.
L’annonce survient dans un contexte stratégique important. Microsoft et OpenAI viennent de modifier leur accord, ce qui permet désormais à OpenAI de servir ses produits sur d’autres fournisseurs infonuagiques, y compris AWS. Microsoft demeure le principal partenaire cloud d’OpenAI, mais son accès aux technologies d’OpenAI n’est plus exclusif. Cette évolution réduit l’avantage différenciateur d’Azure, tout en donnant à OpenAI une marge de manœuvre beaucoup plus grande auprès des entreprises déjà engagées dans l’écosystème AWS.
Pour Sam Altman, patron d’OpenAI, la prochaine étape de l’IA ne consiste plus seulement à poser une question à un modèle et à recevoir une réponse. L’enjeu est maintenant de créer des agents capables d’exécuter des tâches dans l’entreprise, avec de la mémoire, des permissions, un accès encadré aux outils internes et une capacité à fonctionner dans des environnements complexes. Il décrit ces agents comme une forme de « collègues virtuels », même si le vocabulaire reste encore à stabiliser.
Matt Garman, chef de la direction d’AWS, insiste pour sa part sur l’importance de rendre ces technologies utilisables dans les conditions réelles des grandes organisations. Les entreprises veulent connecter leurs données, leurs bases internes, leurs applications et leurs flux de travail, mais sans exposer leurs informations sensibles ni créer un risque opérationnel majeur. L’intérêt de Bedrock Managed Agents est donc de proposer une couche gérée, intégrée à l’environnement AWS, plutôt que de laisser chaque client assembler lui-même les modèles, les outils, les autorisations et les garde-fous.
Cette approche distingue l’offre d’AWS d’un simple accès aux API d’OpenAI. Il ne s’agit pas seulement d’appeler un modèle depuis le nuage, mais de l’insérer dans une infrastructure capable de gérer l’identité, l’état, la journalisation, la gouvernance et les permissions. Selon Garman, les données des clients restent protégées à l’intérieur de l’environnement Bedrock et du VPC AWS, ce qui répond directement aux préoccupations des secteurs réglementés comme la finance, la santé et les administrations publiques.
L’accord marque aussi une inflexion importante dans la relation entre OpenAI et Microsoft. Azure perd l’exclusivité qui lui permettait d’être le passage obligé pour de nombreuses entreprises voulant accéder aux modèles d’OpenAI. Mais Microsoft conserve une position financière et stratégique majeure dans OpenAI, tout en se libérant de certains mécanismes de partage de revenus. Pour OpenAI, l’ouverture vers AWS permet de rejoindre une base immense de clients qui n’avaient pas nécessairement l’intention de déplacer leurs systèmes vers Azure.
Le partenariat illustre également une différence de philosophie entre les grands joueurs du nuage. Google mise fortement sur une intégration verticale, du matériel aux modèles en passant par les outils logiciels. AWS, de son côté, revendique une approche plus ouverte, fondée sur les partenariats et le choix des clients. Dans ce modèle, Amazon n’a pas nécessairement besoin de posséder le modèle d’IA le plus avancé si elle devient l’infrastructure privilégiée pour le déployer en entreprise.
Sam Altman reconnaît toutefois que cette nouvelle génération d’agents reste à construire. Plusieurs questions fondamentales demeurent ouvertes : un agent doit-il utiliser le compte d’un employé ou disposer de sa propre identité ? Comment distinguer une action humaine d’une action automatisée ? Comment gérer plusieurs agents travaillant pour une même personne ou une même équipe ? Ces questions montrent que l’arrivée des agents IA en entreprise ne relève pas seulement de la performance des modèles, mais aussi d’une refonte des mécanismes de confiance, d’accès et de responsabilité.
Un autre enjeu est celui du coût. Altman estime que la demande pour l’« intelligence » deviendra presque illimitée si son prix baisse suffisamment. Selon lui, les clients se préoccupent moins du nombre de jetons consommés que du travail accompli. À terme, la tarification de l’IA pourrait donc évoluer vers une logique de tâche ou de résultat plutôt que de volume de jetons.
Le rôle des puces spécialisées, comme Trainium d’Amazon, apparaît aussi en toile de fond. Garman explique que les clients n’interagiront probablement pas directement avec ces accélérateurs, pas plus qu’ils ne manipulent directement les GPU lorsqu’ils utilisent un service d’IA. L’essentiel, pour eux, sera d’obtenir une capacité fiable, performante et abordable, peu importe l’infrastructure matérielle utilisée derrière l’interface.
Ce partenariat entre OpenAI et AWS pourrait donc avoir une portée plus large qu’une simple entente commerciale. Il traduit le passage d’une IA conversationnelle à une IA opérationnelle, conçue pour agir dans les systèmes des entreprises. Si cette promesse se concrétise, Bedrock Managed Agents pourrait devenir l’un des premiers exemples d’une nouvelle couche d’infrastructure où les modèles, les données, les permissions et les agents se combinent pour transformer le travail numérique en entreprise.
Source : Stratechery
******
Du lundi au vendredi, Bruno Guglielminetti vous propose un regard sur l’essentiel de l’actualité numérique avec 120 secondes de Tech.
Ou encore…
Écoutez la plus récente édition de Mon Carnet,
le magazine hebdomadaire de l’actualité numérique.
En savoir plus sur Mon Carnet
Subscribe to get the latest posts sent to your email.

