
Dans leur course à la fiabilité, les géants de l’intelligence artificielle comme Google, Amazon, Mistral, Cohere ou encore OpenAI redoublent d’efforts pour réduire un phénomène aussi connu que redouté : les hallucinations des modèles de langage. Ces erreurs de génération, où l’IA invente des faits, des citations, voire des documents entiers, freinent l’adoption de la technologie dans des secteurs critiques comme le droit ou la santé. Et malgré des avancées techniques, une vérité s’impose : l’élimination totale de ces erreurs semble, à ce jour, inatteignable.
Le terme “hallucination” désigne un comportement courant des modèles de langage : leur propension à produire des contenus erronés, sans lien réel avec les faits. Cette dérive découle directement de leur fonctionnement : prédire, mot après mot, la séquence la plus probable, à partir de milliards de données textuelles ingérées lors de leur entraînement. Un mot juste isolément peut donc, mis bout à bout avec d’autres, produire une affirmation fausse, mais syntaxiquement crédible.
Comme l’explique Amr Awadallah, ancien de Google et fondateur de la startup Vectara, ces hallucinations relèvent d’un “problème très difficile à résoudre”, intrinsèquement lié à la nature probabiliste des modèles. Le mode de génération le plus courant ( le “greedy search” ) sélectionne les mots les plus probables à chaque étape, sans toujours prendre en compte la cohérence d’ensemble. D’autres approches, comme le “beam search”, améliorent les résultats, mais ne les rendent pas infaillibles.
Vectara a même mis en place un tableau comparatif des taux d’hallucination entre modèles. Certaines versions récentes comme Gemini 2.0 Flash de Google ou GPT-4.5 Preview d’OpenAI affichent des taux aussi bas que 0,7 à 1,2 %, tandis que d’autres peuvent grimper jusqu’à 30 %, notamment sur des tâches complexes comme le résumé de texte.
Pour limiter les dérapages, les développeurs misent sur une approche dite “ancrée” (ou grounded), qui consiste à relier les modèles à des bases de données externes ou des sources précises. C’est le principe du retrieval-augmented generation (RAG), une technique où l’IA va chercher l’information dans des documents, sites web ou bases internes avant de générer une réponse. L’objectif : remplacer l’intuition statistique par des faits vérifiables.
Cohere, Mistral ou encore Google DeepMind ont intégré cette logique à leurs robots conversationnels. En janvier, Mistral a signé un accord avec l’Agence France-Presse pour alimenter ses modèles avec des dépêches journalistiques fiables. De son côté, Cohere permet aux entreprises de connecter leurs bases de données internes aux modèles, assurant ainsi des réponses plus pertinentes et alignées avec leurs besoins métier.
Amazon Web Services ajoute une couche de validation via des automated reasoning checks, un mécanisme logique qui vérifie la cohérence des réponses en sortie. D’autres entreprises comme Vectara entraînent même de petits modèles “évaluateurs” pour détecter les erreurs des grands modèles. Mais malgré ces couches successives de vérification, la vérité reste parfois insaisissable.
Le cofondateur de Cohere, Nick Frosst, le rappelle : il est impossible d’entraîner une IA à “dire uniquement la vérité”, car ce qui est vrai dépend souvent du contexte, du moment, voire du point de vue. Pire encore, autoriser les modèles à rechercher de l’information sur Internet les expose à des attaques appelées prompt injection, où de fausses données sont insérées volontairement dans des sources de confiance comme Reddit ou Wikipédia. C’est ainsi qu’un chatbot de Google a pu recommander de manger des pierres ou de mettre de la colle sur une pizza, après avoir mal interprété une blague en ligne.
Le paradoxe est là : plus on veut rendre les IA créatives et utiles, plus on ouvre la porte à des réponses inventives… et potentiellement fausses. Et dans certains cas, ces “hallucinations” sont même souhaitées, comme dans l’écriture de poésie ou de fiction. Pour Byron Cook d’AWS, “les réponses bizarres sont parfois recherchées, et c’est là où les modèles transforment montrent leur véritable potentiel”.
Enfin, certains chercheurs remettent en question le mot lui-même. Parler “d’hallucination” donne l’impression que les IA fonctionnent comme un cerveau humain. Or, ce n’est pas le cas. Elles génèrent du texte sans comprendre, sans conscience, en suivant des calculs de probabilité. La confusion est donc autant sémantique que technique.
En somme, les géants de l’IA multiplient les efforts pour rendre leurs outils plus fiables, transparents et “ancrés”. Mais tant que ces systèmes seront conçus pour prédire et non pour comprendre, le risque d’erreur demeurera. La solution ne réside pas dans la perfection, mais dans l’encadrement, l’explication, et surtout la responsabilisation des usages.
Source : Financial Times
+++
Tous les jours de la semaine, du lundi au vendredi, Bruno Guglielminetti vous propose un regard sur l’essentiel de l’actualité numérique avec 120 secondes de tech.
En savoir plus sur Mon Carnet
Subscribe to get the latest posts sent to your email.

