Les faux humains prennent la parole, et l’influence en ligne change de visage

Pendant des années, l’influence sur les réseaux sociaux reposait sur une promesse simple : une personne réelle, un visage crédible, une relation de proximité avec une communauté. Ce modèle est en train de changer. Dans un épisode du balado Galaxy Brain publié par The Atlantic, Charlie Warzel et la journaliste du New York Times Tiffany Hsu décrivent l’arrivée massive d’avatars générés par intelligence artificielle, capables d’imiter des humains avec un niveau de réalisme suffisant pour vendre des produits, attirer des abonnés et, surtout, brouiller la frontière entre authenticité et performance.

Le phénomène ne sort pas de nulle part. Il s’inscrit dans une économie de l’attention devenue presque industrielle. Warzel rappelle que, sur les grandes plateformes, chaque publication se bat pour quelques secondes d’attention, dans des fils saturés et alimentés sans arrêt. Dans ce contexte, produire du contenu à la chaîne devient un avantage compétitif. C’est précisément ce qui ouvre la porte aux faux influenceurs : des personnages synthétiques, créés à partir de quelques consignes textuelles, capables d’occuper plusieurs plateformes, de varier les formats et de tester des dizaines de versions d’un même message, sans fatigue ni coût humain comparable.

Le cas de “Melanskia”, évoqué dans la conversation, résume bien ce basculement. Derrière ce compte présenté comme celui d’une femme amish prônant une vie saine, il n’y a pas une personne, mais un avatar généré par IA. Tiffany Hsu explique que ce personnage aurait déjà convaincu plus de 300 000 abonnés. Ce qui frappe dans ce dossier, ce n’est pas seulement l’existence du faux personnage, mais son degré de sophistication : jusqu’aux produits visibles dans les rayons de magasin, assez crédibles pour troubler même des journalistes habitués à traquer la désinformation.

L’autre élément marquant, c’est que ces faux influenceurs ne sont pas forcément cachés dans des laboratoires expérimentaux ou chez de grandes plateformes. Selon Hsu, leur fabrication est déjà largement accessible. Il existe des guides, des formations et même des promesses de revenus récurrents pour celles et ceux qui voudraient se lancer dans ce commerce. L’argument de vente est limpide : plus besoin de rémunérer des créateurs, de financer des séances photo ni d’envoyer des produits. Il suffit de fabriquer un personnage convaincant, de le mettre dans différents décors, puis de lui faire répéter un discours calibré pour les algorithmes.

Ce glissement ne concerne pas seulement l’économie des créateurs. Il touche aussi la confiance du public. L’entretien met en avant une idée importante : nous entrons dans une forme de fatigue cognitive face à la masse de contenus synthétiques. À force de devoir se demander si une image, une vidéo ou un témoignage est vrai, une partie du public cesse tout simplement de s’en soucier. Ce qui compte alors n’est plus tant l’authenticité de la source que l’effet produit sur la personne qui regarde. En d’autres mots, l’émotion prend le dessus sur la vérification.

Cette évolution est particulièrement préoccupante dans l’univers du bien-être, des suppléments et des conseils de santé. Hsu rapporte les propos de Tim Caulfield, professeur canadien en sciences de la santé, qui estime que les fraudeurs ont vite compris le potentiel économique des avatars IA. Le secteur du mieux-être attire depuis longtemps des pratiques douteuses. Avec des personnages artificiels capables de parler avec assurance, de donner l’impression d’une expérience personnelle et d’adopter tous les codes visuels de la crédibilité, le risque d’abus devient encore plus grand. Le problème n’est donc pas seulement technologique. Il devient commercial, culturel et informationnel.

Le plus troublant est peut-être la banalisation du phénomène. Certains comptes ne cachent même plus leur nature artificielle, sans que cela freine vraiment leur croissance. Dans l’épisode, Hsu cite par exemple Aitana Lopez, un avatar IA présenté comme une influenceuse fitness basée à Barcelone, qui cumule près de 400 000 abonnés, multiplie les apparitions de prestige et décroche des partenariats de marque. À l’inverse, certaines entreprises commencent à jouer la carte opposée. Une marque de lingerie, Aerie, a ainsi annoncé qu’elle s’engageait à ne jamais utiliser de corps généré par IA, une prise de position qui aurait suscité une très forte réaction positive. Le marché semble donc partagé entre fascination pour le synthétique et désir de retour au réel.

Il ne faut pas non plus réduire cette évolution à une simple question de naïveté du public. Tiffany Hsu explique que le problème est double. D’un côté, il y a un enjeu de littératie médiatique : certains contenus deviennent si crédibles qu’ils piègent même des internautes attentifs. De l’autre, il y a une forme de curiosité, voire d’enthousiasme, surtout chez les plus jeunes, pour des outils qui permettent de créer des personnages, des scènes et des univers entiers. Les avatars IA ne sont pas perçus uniquement comme une menace. Pour plusieurs, ils représentent aussi un terrain de jeu créatif, un peu comme une extension des codes du jeu vidéo, des filtres ou des personnages virtuels.

Mais l’enjeu dépasse largement le marketing d’influence. On peut relier ce phénomène à un problème plus large de confiance dans l’espace informationnel. Plus il devient facile de produire du faux crédible, plus il devient possible de contester le vrai. Cette dynamique nourrit ce que certains appellent déjà le “liar’s dividend”, c’est-à-dire la possibilité de rejeter des images authentiques en les accusant d’être générées par IA. À terme, ce n’est plus seulement la publicité qui se trouve contaminée, mais l’idée même de preuve visuelle dans l’espace public.

Pour les créateurs humains, l’arrivée de ces avatars agit comme un choc concurrentiel. Hsu dit avoir entendu à plusieurs reprises le mot “panique” chez des influenceurs bien réels. Leur métier, déjà soumis aux caprices des algorithmes, doit maintenant rivaliser avec des personnages qui ne dorment pas, ne vieillissent pas, ne négocient pas leurs cachets et peuvent être reproduits à l’infini. Cela ne veut pas dire que les humains disparaîtront du paysage, mais la valeur de l’authenticité devra désormais être réaffirmée et, peut-être, mieux démontrée.

La régulation, pour l’instant, paraît en retard. L’entretien évoque une loi signée à New York pour exiger la divulgation des “synthetic performers” dans certaines publicités. Hsu juge l’initiative utile comme signal politique, mais insuffisante face à des créateurs souvent anonymes, parfois installés à l’étranger, et à une production qui se multiplie à grande vitesse. Le cœur du problème reste entier : même lorsqu’un contenu est identifié comme artificiel, rien ne garantit que le public verra l’avertissement, ni qu’il en tiendra compte.

Cette vague d’influenceurs synthétiques nous oblige à revoir une idée que l’on croyait acquise : celle selon laquelle un visage humain à l’écran impliquait au moins une part de vérité biographique. Ce n’est plus le cas. Dans l’économie numérique actuelle, un personnage peut être faux, un produit bien réel, une émotion sincère et un effet commercial parfaitement mesurable. C’est cette combinaison qui rend le phénomène si puissant.

Source : The Atlantic

******

Du lundi au vendredi, Bruno Guglielminetti vous propose un regard sur l’essentiel de l’actualité numérique avec 120 secondes de Tech.

Ou encore…

Écoutez la plus récente édition de Mon Carnet,
le magazine hebdomadaire de l’actualité numérique.


En savoir plus sur Mon Carnet

Subscribe to get the latest posts sent to your email.

Laisser un commentaire