
L’arrivée de l’intelligence artificielle dans les salles de rédaction relance un débat qui traverse aujourd’hui toute l’industrie des médias. Les journalistes peuvent-ils utiliser l’IA pour rédiger, résumer ou analyser de l’information ? Certaines rédactions imposent déjà des règles strictes, allant jusqu’à promettre aux lecteurs qu’aucun texte ne sera produit avec l’aide d’une machine. D’autres privilégient la transparence, en indiquant lorsque l’IA a participé au processus de production.
Mais ce débat repose sur une idée trompeuse : croire que la confiance du public repose sur le fait que les journalistes écrivent eux-mêmes chaque phrase. En réalité, la crédibilité du journalisme ne vient pas de la rédaction des phrases, mais de la vérification des faits. Le rôle central du journaliste n’est pas de taper du texte, mais de déterminer si l’information publiée est vraie.
L’analogie avec l’architecture illustre bien cette réalité. Aujourd’hui, les architectes utilisent des logiciels comme AutoCAD pour concevoir des bâtiments. Personne ne remet en cause la solidité d’un immeuble parce que ses plans ont été générés par un logiciel. Ce qui inspire confiance, c’est la responsabilité professionnelle de l’architecte qui valide la structure. Le logiciel produit les plans, mais l’expert vérifie la réalité.
Le journalisme fonctionne selon la même logique. L’écriture est une forme de documentation. La vérification est le cœur du métier. Or l’IA générative est désormais capable de produire du texte fluide en quelques secondes, qu’il s’agisse de résumés, d’explications ou même d’articles complets. Mais ces systèmes ne déterminent pas la vérité d’une information. Ils génèrent des phrases en se basant sur des modèles statistiques du langage.
Le principal risque n’est donc pas que l’IA écrive des articles. Le danger réside dans les erreurs qu’elle peut introduire dans le processus journalistique. Les systèmes génératifs produisent souvent des informations qui semblent crédibles mais qui sont fausses : citations inventées, sources inexistantes ou liens factuels imaginaires. Ces erreurs peuvent apparaître convaincantes et contaminer le travail de recherche si elles ne sont pas vérifiées.
Dans ces situations, la diffusion d’une information erronée ne résulte pas nécessairement d’une volonté de tromper. Elle peut simplement provenir d’un processus de vérification insuffisant. L’enjeu n’est donc pas l’utilisation de l’IA pour rédiger, mais la capacité du journaliste à confirmer chaque affirmation avant publication.
Cela met en lumière deux types de travail au sein du journalisme. D’un côté, le travail rédactionnel : organiser les notes, structurer les idées et écrire clairement. De l’autre, le travail de connaissance : vérifier les sources, recouper les informations et assumer la responsabilité de l’exactitude. L’intelligence artificielle peut accélérer la première tâche, mais elle fragilise la seconde si elle est utilisée sans contrôle.
Certaines initiatives tentent d’encadrer cet usage. À l’Université Kennesaw State, la chercheuse Jeanne Law a développé une méthode appelée « Ethical Wheel of Prompting ». Elle repose sur quatre étapes : comprendre les données utilisées, analyser les résultats générés par l’IA, vérifier les affirmations produites et retravailler le texte avant toute publication. Dans ce cadre, chaque sortie de l’IA est considérée comme une information non vérifiée.
Cette logique rappelle une règle fondamentale du métier : toute affirmation doit être confirmée par une source humaine ou un document primaire. L’IA peut aider à structurer un article ou à accélérer la rédaction, mais elle ne peut pas se substituer à l’enquête journalistique.
Cette réalité dépasse d’ailleurs le seul secteur des médias. Les avocats qui utilisent l’IA pour rédiger des mémoires doivent vérifier les références juridiques. Les médecins qui s’appuient sur l’IA pour résumer des dossiers médicaux doivent confirmer les diagnostics. Les entreprises qui utilisent l’IA pour produire du contenu marketing doivent s’assurer que les informations générées sont exactes. Dans tous les cas, la logique reste la même : la production de texte peut être automatisée, mais la responsabilité ne l’est pas.
Certains médias espèrent préserver la confiance du public en évitant totalement l’IA. Mais cette stratégie ne protège pas nécessairement les lecteurs. L’information générée par l’IA circule déjà dans les moteurs de recherche, les résumés automatisés et les interfaces conversationnelles. Les lecteurs y sont exposés avant même de consulter les médias traditionnels. Dans ce contexte, l’avantage compétitif des institutions médiatiques ne sera pas l’absence d’IA, mais la capacité à démontrer un processus rigoureux de vérification.
À mesure que la production de texte devient instantanée, la crédibilité dépendra moins de l’auteur des phrases que de la responsabilité assumée derrière les faits publiés. L’intelligence artificielle ne force pas le journalisme à défendre l’écriture humaine. Elle oblige surtout la profession à redéfinir sa mission première : vérifier la réalité avant de la publier.
Source : SCMP
******
Du lundi au vendredi, Bruno Guglielminetti vous propose un regard sur l’essentiel de l’actualité numérique avec 120 secondes de Tech.
Ou encore…
Écoutez la plus récente édition de Mon Carnet,
le magazine hebdomadaire de l’actualité numérique.
En savoir plus sur Mon Carnet
Subscribe to get the latest posts sent to your email.

