La recherche IA de Google se tromperait des millions de fois par jour

Les résumés générés par l’intelligence artificielle dans Google Search continuent de poser un problème de fiabilité. Selon une analyse relayée ces derniers jours, les AI Overviews de Google seraient exacts dans environ 90 % des cas testés. Dit autrement, près d’une réponse sur dix contiendrait une erreur, une proportion qui semble limitée à première vue, mais qui prend une tout autre dimension à l’échelle du moteur de recherche le plus utilisé au monde.

Le point de départ de cette estimation est simple. Google a indiqué en 2025 traiter plus de 5 000 milliards de recherches par année. Si l’on applique mécaniquement un taux d’erreur d’environ 9 % à un volume aussi gigantesque, cela représente potentiellement des centaines de milliards de réponses inexactes sur une année entière. L’idée des « millions d’erreurs par jour » est donc crédible comme ordre de grandeur, même si ce calcul demeure théorique et dépend d’une hypothèse importante : que le taux observé sur l’échantillon testé reflète bien l’usage réel.

L’étude à l’origine de ce débat a été menée avec la jeune pousse Oumi, à la demande du New York Times, à partir de 4 326 recherches Google évaluées avec SimpleQA, un banc d’essai largement utilisé pour mesurer la précision factuelle des modèles génératifs. Oumi a conclu que les aperçus générés avec Gemini 2 étaient exacts dans 85 % des cas en octobre, puis dans 91 % des cas après le passage à Gemini 3 en février. Il y a donc amélioration, mais pas au point d’éliminer les réponses fausses ou trompeuses.

Google conteste toutefois la validité de cette démonstration. L’entreprise juge que le protocole utilisé comporte de « sérieuses failles » et ne reflète pas ce que les internautes recherchent réellement sur son moteur. Autrement dit, le géant californien ne nie pas que l’IA puisse se tromper, mais remet en cause la façon de mesurer le problème. Google rappelle d’ailleurs lui-même, dans l’interface des AI Overviews, que l’IA peut faire des erreurs et que les réponses doivent être vérifiées.

L’autre angle mort soulevé par ces analyses concerne les sources. Dans plusieurs cas, les liens affichés sous les réponses générées ne soutiennent pas réellement les affirmations avancées par l’IA. Parfois, le résumé est faux alors qu’un lien plus bas mène vers la bonne information. Parfois encore, le résumé est juste, mais la source citée ne contient pas clairement l’élément affirmé. Ce décalage complique la vérification, et c’est un point sensible pour un moteur qui se présente historiquement comme une porte d’entrée vers des sources fiables.

Le dossier met aussi en lumière un enjeu plus large. Même avec un taux de précision élevé sur le papier, une IA déployée à l’échelle planétaire peut produire un volume colossal d’erreurs. Ce n’est plus seulement un problème technique, c’est aussi une question de confiance, d’usage et de responsabilité éditoriale. Pour l’utilisateur, la conclusion reste prudente : les réponses générées par Google peuvent faire gagner du temps, mais elles ne devraient pas être prises pour parole d’évangile, surtout lorsqu’il est question de santé, d’argent, de droit ou d’information sensible.

Source : New York Times

******

Du lundi au vendredi, Bruno Guglielminetti vous propose un regard sur l’essentiel de l’actualité numérique avec 120 secondes de Tech.

Ou encore…

Écoutez la plus récente édition de Mon Carnet,
le magazine hebdomadaire de l’actualité numérique.


En savoir plus sur Mon Carnet

Subscribe to get the latest posts sent to your email.

Laisser un commentaire