CES 2026 – AMD : Lisa Su trace la feuille de route d’une IA à l’échelle mondiale

LAS VEGSAS – Lors de sa conférence au CES 2026 hier, Dr. Lisa Su, présidente et chef de la direction d’AMD, a présenté la vision du fabricant de semi-conducteurs pour l’avenir de l’intelligence artificielle. Son message central est clair : l’IA entre dans une nouvelle phase d’expansion massive, tant par l’ampleur des usages que par les besoins en puissance de calcul. Elle a évoqué l’arrivée d’une ère dite du YottaScale (une échelle de calcul d’une ampleur inédite, adaptée aux besoins futurs de l’intelligence artificielle), marquée par une croissance exponentielle de la demande en calcul, portée par des milliards d’utilisateurs et d’applications.

Selon Lisa Su, l’IA ne sera plus confinée aux centres de données. Elle sera omniprésente, des infrastructures infonuagiques aux appareils personnels, en passant par les systèmes industriels et embarqués. Cette évolution impose une refonte complète de la chaîne technologique, avec des architectures capables de soutenir à la fois l’entraînement de modèles géants et l’inférence locale, plus rapide et plus économe en énergie.

Sur le plan des infrastructures, AMD a mis de l’avant sa plateforme Helios, pensée pour les centres de données dédiés à l’IA à très grande échelle. Cette approche combine processeurs EPYC et accélérateurs Instinct au sein de racks conçus pour délivrer plusieurs exaflops de performance. L’objectif affiché est de répondre aux besoins croissants des grands acteurs de l’IA, tout en améliorant l’efficacité énergétique, devenue un enjeu central du secteur.

AMD a également profité de la conférence pour présenter de nouveaux accélérateurs destinés aux environnements d’entreprise et pour esquisser les grandes lignes de sa prochaine génération de puces IA, attendue dans les prochaines années. Lisa Su a insisté sur la cadence d’innovation soutenue du groupe, présentée comme une condition essentielle pour rester compétitif dans un marché dominé par quelques acteurs majeurs.

La vision d’AMD ne se limite toutefois pas aux centres de données. L’entreprise entend aussi jouer un rôle clé dans l’essor de l’IA dite locale, directement intégrée aux ordinateurs personnels. Les nouvelles plateformes Ryzen AI ont été mises de l’avant comme des briques technologiques capables d’exécuter des tâches d’IA avancées sans dépendre en permanence du cloud, notamment pour la création de contenu, la productivité et la sécurité.

Cette stratégie vise à rapprocher l’IA des utilisateurs finaux, tout en répondant aux préoccupations liées à la latence, à la confidentialité des données et à la consommation énergétique. AMD positionne ainsi le PC comme un élément à part entière de l’écosystème IA, et non plus comme un simple terminal.

Enfin, la conférence a souligné l’importance des partenariats dans cette course à l’IA. Lisa Su a rappelé que l’ampleur des défis techniques dépasse largement les capacités d’une seule entreprise. AMD mise donc sur un écosystème ouvert, rassemblant développeurs, fournisseurs de logiciels et grands clients industriels, pour accélérer l’adoption de ses plateformes.

À travers cette présentation, AMD a cherché à affirmer son ambition : devenir un acteur incontournable de l’IA à tous les niveaux de calcul. Une stratégie qui repose autant sur la performance brute que sur la capacité à déployer l’intelligence artificielle de manière plus distribuée, plus efficace et plus accessible.

******

Du lundi au vendredi, Bruno Guglielminetti vous propose un regard sur l’essentiel de l’actualité numérique avec 120 secondes de Tech.

Ou encore…

Écoutez la plus récente édition de Mon Carnet,
le magazine hebdomadaire de l’actualité numérique.


En savoir plus sur Mon Carnet

Subscribe to get the latest posts sent to your email.

Laisser un commentaire