
L’écosystème de l’information en ligne traverse une mutation profonde. Selon une enquête récente de NEXT, près de 18 % des 1 000 sites d’actualité les plus recommandés par Google Discover sont générés par intelligence artificielle, une proportion qui atteint 33 % dans la catégorie technologique de Google News.
Au cœur de cette transformation, le fonctionnement même de Discover. L’outil ne privilégie pas d’abord la crédibilité ou l’expertise, mais l’engagement. Les contenus qui suscitent des clics, du temps de lecture ou des partages sont favorisés. Dans ce contexte, des sites automatisés, capables de produire des centaines voire des milliers d’articles par jour, parviennent à s’imposer dans les recommandations.
Certaines pratiques illustrent l’ampleur du phénomène. Des sites générés par IA publient plus de 7 000 articles en deux semaines, soit plus de 500 textes par jour, sans validation humaine systématique. Ces contenus reposent souvent sur des titres accrocheurs, voire anxiogènes, conçus pour maximiser le taux de clic.
Cette logique industrielle permet à certains acteurs isolés de rivaliser avec de grandes rédactions. Dans certains cas, un seul opérateur, utilisant des outils automatisés, génère plus de contenus et capte davantage de visibilité que des médias reposant sur des équipes de journalistes. Et l’impact sur l’audience est déjà mesurable. Une étude de Médiamétrie indique que 14 à 16 millions d’internautes français consultent chaque mois ces sites générés par IA, soit plus d’un quart de la population connectée. La distribution de ces contenus repose largement sur les plateformes de Google. Environ 77 % du trafic vers ces sites provient directement de Discover, de la recherche ou de Google Actualités.
Le profil des utilisateurs révèle un déséquilibre générationnel marqué. Près des trois quarts des visiteurs ont plus de 50 ans, une tranche d’âge surreprésentée dans l’audience de ces sites et plus susceptible d’être exposée à des contenus trompeurs.
Au-delà de l’audience, la question économique est centrale. Ces sites sont majoritairement financés par la publicité, souvent via la régie de Google elle-même. Ce modèle crée une situation paradoxale où l’écosystème publicitaire alimente indirectement la prolifération de contenus automatisés qui concurrencent les médias traditionnels.
Les conséquences pour la presse sont multiples. D’une part, une perte de trafic et de revenus. D’autre part, une dilution de la valeur de l’information. Lorsque des contenus générés automatiquement côtoient des articles issus d’un travail journalistique, la distinction devient moins évidente pour le public. Le problème dépasse la seule question économique. Il touche aussi à la qualité de l’information. Certains de ces contenus contiennent des erreurs, voire des informations inventées, qui peuvent se propager rapidement avant d’être détectées ou retirées.
Face à ces critiques, Google affirme que ses systèmes anti-spam éliminent la grande majorité des contenus de faible qualité. L’entreprise rappelle également que l’utilisation de l’intelligence artificielle n’est pas en soi interdite, tant que les contenus respectent ses règles.
Dans les faits, les mécanismes de filtrage semblent montrer leurs limites. Des contenus automatisés continuent d’apparaître en bonne position dans les recommandations, parfois même en tête des suggestions proposées aux utilisateurs. Et ce phénomène s’inscrit dans une tendance plus large, celle de l’industrialisation de la production de contenu. Grâce à l’intelligence artificielle, il devient possible de produire à grande échelle, à faible coût, des textes optimisés pour les algorithmes plutôt que pour les lecteurs.
Pour les professionnels de l’information, l’enjeu est désormais stratégique. Il s’agit de trouver un équilibre entre visibilité algorithmique et exigence éditoriale, dans un environnement où la quantité tend à primer sur la qualité. À plus long terme, la question est celle de la confiance. Si les utilisateurs ne parviennent plus à distinguer l’information vérifiée des contenus automatisés, c’est l’ensemble de l’écosystème médiatique qui pourrait être fragilisé.
Dans cet univers dominé par les logiques d’engagement, une interrogation s’impose : les règles actuelles des plateformes favorisent-elles encore une information fiable, ou encouragent-elles, malgré elles, la montée d’une information produite à la chaîne?
Source : NEXT
******
Du lundi au vendredi, Bruno Guglielminetti vous propose un regard sur l’essentiel de l’actualité numérique avec 120 secondes de Tech.
Ou encore…
Écoutez la plus récente édition de Mon Carnet,
le magazine hebdomadaire de l’actualité numérique.
En savoir plus sur Mon Carnet
Subscribe to get the latest posts sent to your email.

