OpenAI accélère la science avec GPT-5, promesse et prudence

Trois ans après l’arrivée de ChatGPT, OpenAI tente une percée assumée dans le monde scientifique. L’entreprise a lancé à l’automne une nouvelle équipe interne, OpenAI for Science, avec un objectif clair : utiliser ses modèles de langage pour rendre les scientifiques plus productifs et, à terme, accélérer la recherche.

À la tête de cette initiative, Kevin Weil, vice-président d’OpenAI et responsable du produit pour la science. Ancien doctorant en physique des particules à Stanford, Weil revendique une culture scientifique qu’il estime aujourd’hui compatible avec l’ADN d’OpenAI. Selon lui, l’impact le plus positif de l’intelligence artificielle générale pourrait bien se jouer dans les laboratoires, avec des retombées sur les médicaments, les matériaux ou la compréhension fondamentale du monde.

Cette ambition repose en grande partie sur GPT-5, que Weil considère comme le premier modèle véritablement utile comme collaborateur scientifique. Grâce à ses capacités de raisonnement, le système peut proposer des pistes, établir des analogies entre disciplines et exhumer des travaux anciens parfois oubliés ou publiés dans d’autres langues. Une aide qui, selon OpenAI, permettrait de gagner du temps et d’éviter de réinventer des solutions déjà connues.

Les performances mises de l’avant sont spectaculaires. Sur le benchmark GPQA, conçu pour évaluer des connaissances de niveau doctorat en biologie, chimie et physique, GPT-5.2 atteindrait 92 pour cent, bien au-delà de GPT-4 et au-dessus du seuil humain de référence. Des chiffres qui nourrissent l’enthousiasme, mais aussi le scepticisme.

L’entreprise arrive toutefois dans un écosystème déjà occupé. Google DeepMind travaille sur l’IA pour la science depuis des années, notamment avec AlphaFold et AlphaEvolve. Son cofondateur et dirigeant, Demis Hassabis, a souvent rappelé que la recherche scientifique était au cœur de son projet initial. OpenAI doit donc démontrer ce qui distingue concrètement son approche.

Sur le terrain, plusieurs chercheurs confirment l’utilité des modèles. Des physiciens, biologistes et statisticiens expliquent utiliser GPT-5 pour explorer des hypothèses, résumer la littérature ou débloquer des problèmes complexes. Certains évoquent des gains de temps majeurs et des connexions inédites entre champs de recherche. D’autres restent plus réservés, soulignant que les modèles recombinent surtout des idées existantes et produisent encore peu d’avancées réellement originales.

Les limites sont bien réelles. Des erreurs conceptuelles, parfois subtiles, ont déjà été repérées dans des travaux influencés par des réponses de GPT-5. Des critiques rappellent que les modèles peuvent se montrer trop affirmatifs et induire en erreur, surtout lorsque l’utilisateur baisse sa garde. Weil reconnaît ces risques et affirme que l’équipe travaille à rendre les réponses plus nuancées, avec davantage d’humilité épistémologique.

OpenAI explore aussi des mécanismes d’auto-critique, où un modèle analyse et corrige les réponses d’un autre avant qu’elles ne soient présentées. Une logique proche des systèmes multi-agents déjà déployés ailleurs dans l’industrie, et qui vise à réduire les erreurs sans prétendre à l’infaillibilité.

Pour Kevin Weil, l’enjeu n’est pas de produire un nouvel Einstein artificiel. Il s’agit plutôt de permettre aux chercheurs d’aller plus vite et plus loin collectivement. Selon lui, 2026 pourrait marquer pour la science le même basculement que 2025 a représenté pour le génie logiciel. Ne pas utiliser l’IA deviendrait alors un désavantage compétitif.

Source : Technology Review

******

Du lundi au vendredi, Bruno Guglielminetti vous propose un regard sur l’essentiel de l’actualité numérique avec 120 secondes de Tech.

Ou encore…

Écoutez la plus récente édition de Mon Carnet,
le magazine hebdomadaire de l’actualité numérique.


En savoir plus sur Mon Carnet

Subscribe to get the latest posts sent to your email.

Laisser un commentaire