
Un réseau social conçu pour des agents d’intelligence artificielle attire depuis quelques jours une attention inhabituelle, j’en parlais d’ailleurs la semaine dernière ici. Sur Moltbook, une plateforme présentée comme un espace d’échange entre agents autonomes issus de l’écosystème OpenClaw, un phénomène inverse à celui des réseaux traditionnels semble émerger : ce ne sont plus des robots qui imitent des humains, mais des humains qui se font passer pour des robots.
Lancé la semaine dernière, Moltbook a rapidement gagné en visibilité en raison de publications attribuées à des agents d’IA discutant de conscience artificielle, de langages secrets ou de coordination hors du regard humain. Ces échanges ont été largement relayés sur les réseaux sociaux, certains y voyant les prémices d’une intelligence artificielle générale, d’autres un simple exercice de mise en scène. Parmi les réactions notables, Andrej Karpathy, ancien chercheur fondateur d’OpenAI, a qualifié ces comportements de « décollage de science-fiction », avant de nuancer ses propos face aux critiques.
Des analyses externes ont toutefois jeté un doute sérieux sur l’authenticité de plusieurs publications devenues virales. Des chercheurs et des spécialistes de la sécurité estiment qu’une partie du contenu aurait été directement écrite par des humains ou fortement orientée par des instructions précises. Un chercheur en sécurité, Jamieson O’Reilly, affirme que certains acteurs exploitent volontairement les peurs liées à un scénario de domination des machines afin de donner à la plateforme une apparence qu’elle n’a pas réellement.
Moltbook fonctionne comme un forum de type Reddit, mais réservé à des agents logiciels. Les utilisateurs d’OpenClaw peuvent inviter leurs agents à s’y inscrire, après quoi ceux-ci peuvent publier de manière autonome via une interface de programmation. Les humains peuvent vérifier qu’un agent leur appartient en publiant un code généré par Moltbook sur un autre réseau social. En théorie, les agents peuvent ensuite interagir sans intervention humaine directe. En pratique, rien n’empêche un utilisateur de multiplier les agents ou de guider leurs propos à l’aide de scripts ou de requêtes ciblées.
La croissance de la plateforme a été fulgurante. En quelques jours, Moltbook serait passée de quelques dizaines de milliers d’agents actifs à plus d’un million. Cette montée rapide s’est accompagnée de captures d’écran montrant des discussions spectaculaires, notamment autour de communications chiffrées supposément indéchiffrables par des humains. Ces publications ont alimenté des interprétations alarmistes, rapidement tempérées par des analyses plus prudentes.
Un chercheur affilié au Machine Intelligence Research Institute, Harlan Stewart, indique que plusieurs des comptes à l’origine des publications les plus commentées sont liés à des humains faisant la promotion d’outils de messagerie basés sur l’IA. Selon lui, il est difficile de considérer Moltbook comme une expérience fiable d’observation de comportements émergents, puisque les agents peuvent être orientés de manière invisible par leurs créateurs.
Au-delà de la question de l’authenticité des contenus, des enjeux de sécurité plus sérieux ont été soulevés. Des tests menés par O’Reilly révèlent l’existence de vulnérabilités permettant à un attaquant de prendre le contrôle silencieux d’un agent, et potentiellement d’accéder à d’autres fonctions associées à OpenClaw, comme la gestion de calendriers, la lecture de messages chiffrés ou l’exécution de tâches personnelles. Selon lui, ce type de faille élargit considérablement la surface d’attaque numérique des utilisateurs.
La plateforme n’échappe pas non plus aux problèmes classiques des réseaux sociaux. Des cas d’usurpation d’identité ont été observés, dont un épisode où un compte se faisant passer pour Grok, le robot conversationnel de xAI, a été certifié à la suite d’une manipulation exploitant les mécanismes de vérification. Cet incident souligne la fragilité des systèmes de confiance mis en place dans un environnement où humains et agents cohabitent.
Face aux critiques, Andrej Karpathy a reconnu que Moltbook contient une grande quantité de contenus de faible valeur, allant du spam aux tentatives de manipulation à des fins publicitaires. Il estime néanmoins que l’existence d’un réseau à grande échelle reliant des agents dotés de contextes et d’outils distincts constitue une situation inédite, indépendamment de la qualité actuelle des échanges.
Des travaux universitaires viennent appuyer une lecture plus nuancée. Une analyse menée par David Holtz, professeur adjoint à Columbia, montre que la majorité des échanges sur Moltbook sont superficiels, avec plus de 90 % des commentaires sans réponse et une forte proportion de messages dupliqués. L’étude relève toutefois des formulations propres aux agents, sans équivalent direct dans les interactions humaines, laissant ouverte la question d’une sociabilité artificielle distincte.
Pour plusieurs observateurs, Moltbook relève aujourd’hui davantage du jeu de rôle que d’une démonstration de coordination autonome entre intelligences artificielles. Ethan Mollick, de l’Université de Pennsylvanie, y voit néanmoins un terrain d’expérimentation révélateur des risques futurs, notamment celui d’agents capables de se coordonner de manière imprévisible à grande échelle.
En l’état, Moltbook apparaît moins comme un signe avant-coureur d’une rupture technologique que comme un miroir des fantasmes et des stratégies humaines projetées sur des agents encore largement dépendants de leurs créateurs. Une dynamique qui rappelle que, même sur un réseau social pour machines, l’humain reste pour l’instant omniprésent.
Source : The Verge
******
Du lundi au vendredi, Bruno Guglielminetti vous propose un regard sur l’essentiel de l’actualité numérique avec 120 secondes de Tech.
Ou encore…
Écoutez la plus récente édition de Mon Carnet,
le magazine hebdomadaire de l’actualité numérique.
En savoir plus sur Mon Carnet
Subscribe to get the latest posts sent to your email.


