
Au cours d’une rencontre publique d’une heure en début de semaine, le directeur général d’OpenAI, Sam Altman, a livré une vision précise des bouleversements à venir dans le développement logiciel, la science, la sécurité, l’éducation et l’économie. Face à une salle remplie de développeurs, d’entrepreneurs, de scientifiques et d’étudiants, il a tenté d’esquisser la trajectoire de l’entreprise et les défis qui accompagneront les modèles les plus puissants jamais mis entre les mains du public.
D’entrée de jeu, Altman a abordé une question centrale du moment : l’arrivée d’outils capables d’écrire du code, de déboguer et de concevoir des logiciels complexes à une vitesse qui, selon lui, n’aurait été envisageable qu’avec des équipes nombreuses il y a encore un an. À ses yeux, la fonction d’ingénieur va profondément changer, mais la demande globale ne diminuera pas. Il prévoit au contraire une explosion du nombre de personnes capables de « faire faire aux ordinateurs ce qu’elles veulent », une forme élargie et reconfigurée de l’ingénierie logicielle, où la personnalisation extrême deviendra la norme. Le coût radicalement plus bas de la création logicielle ouvre, selon lui, un accès inédit à l’autonomie et à la création de valeur.
Interrogé sur les difficultés des développeurs à faire connaître leurs produits, Altman n’a pas cherché à embellir la réalité. Construire un outil n’a jamais été la partie la plus difficile. La distribution et l’attention humaine, limitée par nature, restent le goulot d’étranglement. Même dans un monde où l’abondance logicielle deviendrait la règle, la compétition pour l’attention demeurera féroce.
Une grande partie de la rencontre a porté sur les agents, ces systèmes capables d’exécuter des tâches de façon autonome, parfois pendant de longues périodes. Altman refuse l’idée qu’OpenAI puisse imposer une seule interface ou un seul mode d’usage. Il affirme au contraire que le futur sera « pluraliste », avec des utilisateurs préférant des environnements multi-agents complexes, et d’autres misant sur une interaction vocale ponctuelle. Il reconnaît aussi que les outils destinés aux développeurs restent insuffisants pour exploiter réellement les capacités des modèles, et il encourage l’écosystème à proposer ses propres innovations.
À propos des inégalités économiques, Altman prévoit une pression déflationniste majeure liée à l’IA, rendue possible par les avancées dans les tâches numériques et, bientôt, grâce à la robotique. Si la déflation ouvrira de nouvelles possibilités, il estime qu’elle pourrait aussi devenir un terrain où les politiques publiques auront un rôle déterminant pour éviter la concentration excessive de pouvoir et de richesse.
Interpellé sur l’évolution des modèles GPT, Altman a reconnu un point faible dans l’écriture de GPT-5 comparativement à GPT-4.5, estimant que l’équipe a priorisé d’autres domaines comme le raisonnement, l’utilisation d’outils et les performances d’agent. Il promet toutefois un retour à un équilibre où les futurs modèles devront exceller simultanément dans l’intelligence, la communication, la rédaction et le développement logiciel.

Un autre moment marquant est venu lorsqu’il a abordé l’avenir du coût de l’IA. Altman estime possible, d’ici 2027, d’offrir une intelligence comparable à GPT-5.2 pour un coût cent fois inférieur. Mais il souligne que la rapidité d’exécution deviendra un enjeu aussi crucial que le prix, au moment où les sorties de modèles gagnent en complexité.
Sur les agents autonomes capables d’exécuter de longues chaînes d’actions, Altman affirme que plusieurs tâches peuvent déjà fonctionner en mode continu grâce à des orchestrations adaptées. La difficulté n’est pas tant la puissance que la vérification fiable des résultats dans des environnements plus ouverts.
L’un des points les plus sensibles du town hall a concerné la sécurité, en particulier la bio-sécurité. Altman a affirmé sans détour que les modèles actuels sont « très bons en biologie », et que les approches basées sur la restriction d’accès seront bientôt insuffisantes. Il juge indispensable de passer à une logique de résilience : infrastructures capables de détecter et contrer des menaces, outils d’analyse accélérés par l’IA, et collaboration étroite avec la communauté scientifique. Il compare cette transition à l’évolution historique des sociétés face au feu. Les risques sont réels, et Altman estime que si un incident grave devait survenir cette année, le domaine biologique serait un candidat plausible.
L’éducation a aussi occupé une place importante. Altman se montre critique envers les systèmes scolaires qui tentent d’interdire l’IA, rappelant les débats similaires lors de l’arrivée de Google. Pour lui, c’est l’approche de l’enseignement qu’il faut revoir, non l’accès aux outils. Il recommande néanmoins de tenir les jeunes enfants éloignés des écrans, par prudence et par manque de données sur les conséquences du numérique précoce.
À propos de la créativité, il souligne que les utilisateurs attachent une valeur émotionnelle beaucoup plus forte aux œuvres humaines, même lorsqu’ils ne peuvent pas distinguer visuellement une image créée par une IA. Il estime que cette préférence demeurera durable. Les outils génératifs deviendront omniprésents, mais l’humain restera le centre de gravité créatif.
Sur la personnalisation et la mémoire, Altman assume désormais une position qu’il dit ne pas avoir imaginée il y a quelques années. Il se dit prêt à ce que ChatGPT ait accès à la quasi-totalité de sa vie numérique, tant le gain en utilité est important. Mais il admet aussi que les modèles sont encore loin de posséder le jugement nuancé nécessaire pour partager les bonnes informations au bon moment, et qu’une erreur serait lourde de conséquences.
La rencontre s’est conclue sur une question simple : quelles compétences faut-il cultiver à l’ère de l’IA ? Altman ne croit plus aux compétences techniques isolées comme moteur principal d’avantage. Il met plutôt de l’avant la capacité à générer de bonnes idées, l’adaptabilité, la résilience et l’initiative personnelle. Dans un monde où les modèles deviendront cent fois plus rapides, plus fiables et moins coûteux, ce sont ces qualités humaines qui devraient, selon lui, différencier ceux qui bâtiront les usages de demain.
En quittant la scène, Altman a lancé un dernier appel aux développeurs : imaginer ce qu’ils construiraient avec un modèle doté d’un contexte cent fois supérieur, d’une rapidité centuplée et d’un coût cent fois réduit. Pour OpenAI, cette vision n’est plus de la science-fiction, mais une feuille de route. L’entreprise cherche activement à savoir ce que ses utilisateurs attendent réellement de cette prochaine génération de technologies.
Source : OpenAI
******
Du lundi au vendredi, Bruno Guglielminetti vous propose un regard sur l’essentiel de l’actualité numérique avec 120 secondes de Tech.
Ou encore…
Écoutez la plus récente édition de Mon Carnet,
le magazine hebdomadaire de l’actualité numérique.
En savoir plus sur Mon Carnet
Subscribe to get the latest posts sent to your email.

