CES 2026 – NVIDIA parie sur l’IA totale, du raisonnement aux machines autonomes

LAS VEGAS – Au CES 2026, Jensen Huang n’est pas venu présenter une simple feuille de route technologique. Le fondateur et PDG de NVIDIA a livré une lecture ambitieuse de la transformation en cours de l’informatique, qu’il décrit comme un double basculement de plateforme. D’un côté, les applications sont désormais construites sur l’intelligence artificielle. De l’autre, la manière même de concevoir, d’entraîner et d’exécuter les logiciels est en train d’être réinventée.

Selon Jensen Huang, l’industrie informatique connaît ces ruptures environ tous les dix à quinze ans, du mainframe au PC, puis à l’internet, au cloud et au mobile. L’IA marque toutefois une rupture d’une autre ampleur. On ne programme plus des logiciels, on les entraîne. On ne les exécute plus sur des processeurs classiques, mais sur des accélérateurs massivement parallèles. Les applications ne sont plus précompilées, elles génèrent chaque réponse, chaque pixel et chaque token en temps réel, en fonction du contexte.

Cette mutation, explique-t-il, entraîne la modernisation de près de 10 000 milliards de dollars d’infrastructures informatiques héritées. Elle provoque aussi un déplacement massif des budgets de recherche et développement vers l’IA, de l’ordre de plusieurs centaines de milliards de dollars par an. Pour NVIDIA, cette dynamique explique l’intensité des investissements et la cadence soutenue de ses annonces.

L’année 2025 a été présentée comme un point d’accélération. Les lois d’échelle des modèles de langage se sont poursuivies, mais surtout, de nouveaux concepts ont émergé. Jensen Huang insiste sur le rôle des modèles de raisonnement, capables de consacrer plus de calcul au moment de l’inférence, ce qu’il appelle le test-time scaling. Cette capacité à « penser » en temps réel augmente fortement les besoins en calcul, mais améliore la qualité des réponses.

Autre tournant majeur, l’émergence des systèmes agentiques. Ces IA ne se contentent plus de produire du texte ou des images. Elles planifient, utilisent des outils, consultent des sources externes, simulent des scénarios et enchaînent des tâches complexes. NVIDIA les utilise déjà en interne, notamment pour le développement logiciel. Pour Jensen Huang, ces agents vont devenir l’interface principale des applications, y compris dans l’entreprise, remplaçant progressivement les tableaux, formulaires et interfaces traditionnelles.

L’IA générative ne se limite pas au texte. Le PDG de NVIDIA a longuement insisté sur l’essor de ce qu’il appelle la physical AI. Il s’agit d’IA capables de comprendre et d’interagir avec le monde réel, en intégrant des notions de causalité, de permanence des objets, de friction ou de gravité. Des évidences pour un enfant, mais des défis majeurs pour une machine.

Pour y parvenir, NVIDIA s’appuie sur une architecture reposant sur trois types d’ordinateurs. Un premier pour l’entraînement des modèles, un deuxième pour l’inférence embarquée dans les robots ou les véhicules, et un troisième dédié à la simulation. Cette dernière est centrale. Elle permet de générer des données synthétiques réalistes, basées sur les lois de la physique, afin d’entraîner et d’évaluer les systèmes dans des situations rares ou dangereuses à reproduire dans le monde réel.

C’est dans ce contexte qu’intervient Cosmos, le modèle de fondation « du monde » de NVIDIA. Contrairement aux modèles de langage, Cosmos est entraîné à comprendre des environnements physiques à partir de vidéos, de simulations 3D et de données issues de la robotique et de la conduite. Il peut générer des scènes cohérentes, prévoir des trajectoires et réagir à des actions dans des boucles de simulation interactives. Jensen Huang y voit un moment charnière pour la robotique, comparable à l’arrivée de ChatGPT pour le texte.

La démonstration la plus concrète de cette approche est venue avec l’annonce d’AlphaMayo, présenté comme le premier système d’IA de conduite autonome capable de raisonner sur ses décisions. Entraîné de bout en bout, de la caméra aux actionneurs, à partir de données humaines et de données synthétiques générées par Cosmos, le système ne se contente pas de conduire. Il explicite aussi les raisons de ses choix et les trajectoires envisagées.

NVIDIA a confirmé que cette pile logicielle, développée en partenariat avec Mercedes-Benz, sera déployée commercialement à partir de 2026. Le constructeur mise sur une architecture à double pile, combinant un système de conduite basé sur l’IA et un système de sécurité redondant plus classique. L’objectif est de gérer la fameuse « longue traîne » des situations de conduite, impossibles à anticiper exhaustivement, en les décomposant en scénarios élémentaires que l’IA peut raisonner.

Au-delà des modèles, le discours de Jensen Huang a surtout mis en lumière l’ampleur du chantier matériel. La demande en calcul explose sous l’effet de modèles plus grands, de l’apprentissage par renforcement et de l’augmentation du nombre de tokens générés à chaque requête. Pour y répondre, NVIDIA a dévoilé Vera Rubin, sa nouvelle plateforme de calcul, nommée en hommage à l’astronome qui a mis en évidence l’existence de la matière noire.

Vera Rubin marque une rupture d’architecture. Six nouvelles puces ont été co-conçues simultanément, CPU, GPU, interconnexions, commutateurs et processeurs réseau, afin de dépasser les limites imposées par le ralentissement de la loi de Moore. Le système promet jusqu’à cinq fois plus de performances en inférence et plus de trois fois en entraînement par rapport à la génération précédente, tout en maintenant des contraintes énergétiques compatibles avec les centres de données existants grâce à un refroidissement liquide à haute température.

L’autre innovation clé concerne la mémoire de contexte des IA. À mesure que les modèles deviennent persistants et conversationnels, cette mémoire ne tient plus uniquement dans les accélérateurs. NVIDIA introduit une nouvelle couche de stockage ultra-rapide, intégrée au rack, gérée par ses processeurs BlueField, afin de rapprocher cette mémoire du calcul et d’éviter la saturation des réseaux de centres de données.

Pour Jensen Huang, cette stratégie full stack n’est pas un choix, mais une nécessité. L’IA, affirme-t-il, n’est plus une brique logicielle isolée. C’est une industrie complète, des puces aux applications, en passant par les infrastructures, les modèles et les outils de développement. NVIDIA entend fournir cette pile dans son ensemble, tout en la laissant ouverte afin que chaque entreprise, chaque secteur et chaque pays puisse l’adapter à ses besoins.

Le message délivré à Las Vegas est clair. L’IA ne se contente plus d’améliorer l’existant. Elle redéfinit la façon dont les logiciels sont conçus, dont les machines interagissent avec le monde et dont l’industrie se structure. Pour NVIDIA, le CES 2026 marque moins une vitrine de produits qu’un jalon dans ce que Jensen Huang n’hésite pas à qualifier de nouvelle révolution industrielle.

******

Du lundi au vendredi, Bruno Guglielminetti vous propose un regard sur l’essentiel de l’actualité numérique avec 120 secondes de Tech.

Ou encore…

Écoutez la plus récente édition de Mon Carnet,
le magazine hebdomadaire de l’actualité numérique.


En savoir plus sur Mon Carnet

Subscribe to get the latest posts sent to your email.

Laisser un commentaire