Les assistants IA altèrent-ils l’information ?

L’essor des assistants d’intelligence artificielle comme ChatGPT, Copilot, Gemini et Perplexity transforme la consommation de l’information, mais une récente étude menée par la BBC révèle des failles inquiétantes dans leur manière de restituer les faits. Selon cette analyse, plus de la moitié des réponses fournies par ces outils contenaient des erreurs significatives.

L’étude de la BBC révèle que 51 % des réponses générées par ces assistants présentaient des problèmes majeurs. Parmi les erreurs les plus courantes : des inexactitudes factuelles, des citations altérées et des informations sorties de leur contexte. Par exemple, 19 % des réponses contenant des références à des articles de la BBC comportaient des erreurs factuelles, notamment des chiffres ou des dates incorrectes.

Les réponses produites par les assistants IA contenaient d’importantes inexactitudes et du contenu déformé de la BBC. En particulier :
• 51 % de toutes les réponses de l’IA aux questions sur l’actualité ont été jugées comme présentant des problèmes importants d’une manière ou d’une autre.
• 19 % des réponses de l’IA citant le contenu de la BBC introduisaient des erreurs factuelles : des déclarations factuelles, des chiffres et des dates incorrects.
• 13 % des citations provenant d’articles de la BBC ont été modifiées par rapport à la source originale ou ne sont pas présentes dans l’article cité.

Le problème ne se limite pas aux erreurs factuelles. La recherche souligne que lorsque ces outils citent des sources reconnues comme la BBC, les utilisateurs ont tendance à leur faire confiance, même si l’information est erronée. Un phénomène amplifié par les réseaux sociaux où ces inexactitudes se propagent rapidement.

Les chercheurs ont relevé plusieurs cas de distorsion de l’information. Par exemple, Google Gemini a affirmé à tort que le NHS britannique déconseillait le vapotage comme méthode de sevrage tabagique, alors que l’institution le recommande. Microsoft Copilot, de son côté, a mal interprété l’histoire de Gisèle Pelicot, une victime de crime, en suggérant qu’elle avait découvert les faits à cause de pertes de mémoire, alors que la police lui avait révélé la vérité.

Les conclusions de la BBC soulignent la nécessité d’un contrôle accru sur l’utilisation des contenus journalistiques par l’IA. Elles appellent aussi à une régulation plus stricte afin de garantir l’intégrité de l’information diffusée par ces outils. La BBC recommande une collaboration entre les médias, les entreprises technologiques et les régulateurs pour corriger ces problèmes et assurer la transparence dans la gestion des sources.

La BBC prévoit de poursuivre son analyse et encourage les autres médias à faire de même. L’enjeu est de taille : garantir que les assistants d’IA, de plus en plus utilisés comme source d’information, ne deviennent pas des vecteurs de désinformation involontaire.

Alors que l’IA devient un acteur incontournable du paysage médiatique, cette étude rappelle qu’aucun algorithme ne peut remplacer la rigueur journalistique et l’éthique professionnelle. Une vigilance accrue est essentielle pour préserver la qualité et la fiabilité de l’information dans un monde où la technologie évolue plus vite que les garde-fous.

Pour éviter ces dérives, plusieurs experts suggèrent d’améliorer la transparence des modèles d’IA. Cela passe par un meilleur encadrement des sources utilisées et une obligation pour les entreprises technologiques de signaler clairement l’origine des informations diffusées par leurs assistants virtuels. Des labels de fiabilité pourraient être mis en place afin d’aider les utilisateurs à identifier les sources vérifiées.

Par ailleurs, l’éducation aux médias et à l’information devient un enjeu central. Sensibiliser le grand public aux limites des IA et à la vérification des faits permettrait de renforcer l’esprit critique face aux contenus générés par ces outils. La BBC prévoit d’ailleurs de lancer une série d’initiatives pour accompagner les citoyens dans cette transition numérique.


En savoir plus sur Mon Carnet

Subscribe to get the latest posts sent to your email.

Laisser un commentaire