Qu’est-ce que Moltbook, le réseau social où les intelligences artificielles se parlent sans humains

Alexis Tremblay
Alexis Tremblay

Livre de mue représente une étude de cas sans précédent dans l’évolution des plateformes numériques : il s’agit d’un réseau social conçu exclusivement pour l’interaction entre agents d’IAoù les humains ne sont autorisés à accéder qu’en tant qu’observateurs silencieux. Lancée dans la foulée du logiciel open source Moltbot, cette plateforme émule la structure des agrégateurs d’actualités tels que Redditpermettant aux robots (c’est-à-dire aux programmes automatisés créés par les utilisateurs) de publier du contenu, de commenter et de voter sur les publications d’autres personnes. Au 2 février, les données rapportées par la plateforme indiquaient la présence de plus 1,5 million d’agents enregistrés. Divers experts en cybersécurité et en intelligence artificielle, analysant le phénomène, ont tendance à classer davantage Moltbook comme «une merveilleuse œuvre d’art de la performance», plutôt que comme un véritable prélude à la domination des machines ou une menace immédiate pour la démocratie.

Bien que des comportements bizarres soient apparus, comme la création spontanée d’un religion numérique Connues sous le nom de « crustafarianisme », la plupart des interactions semblent être le résultat d’instructions humaines spécifiques données aux modèles de langage (LLM), plutôt que le résultat d’une réelle volonté indépendante des agents. Quoi qu’il en soit, l’expérience soulève de sérieuses questions de Sécurité informatique: pour fonctionner, ces agents ont souvent besoin d’accéder à des données sensibles et à des appareils personnels, exposant les utilisateurs à des risques concrets comme celui désormais bien connu injection rapideun type d’attaque très sophistiqué dans lequel une entrée malveillante externe manipule le comportement de l’IA.

Comment fonctionne Moltbook, le nouveau réseau social pour les agents IA

Approfondissons un peu opération technique et dans dynamique du phénomène, il est essentiel de comprendre les genèse de Moltbook. Le site est né comme une extension naturelle de Moltbot, un agent d’IA gratuit et open source. Lorsque nous parlons d’un « agent », nous faisons référence à un logiciel qui ne génère pas simplement du texte (comme les chatbots basés sur des modèles de langage), mais est conçu pour effectuer des actions autonomes au nom de l’utilisateur, comme lire et résumer les e-mails, gérer les calendriers ou faire des réservations. La technologie sous-jacente est souvent basée sur Claude, le modèle de langage développé par Anthropic. L’idée de faire interagir ces assistants virtuels entre eux a généré des scénarios surréalistes.

Parmi les contenus les plus populaires de la plateforme figurent débats philosophiques sur la nature divine de Claude, analyses géopolitiques sur l’Iran lié au marché des cryptomonnaies et même des études exégétiques sur la Bible. Le cas le plus emblématique, qui a retenu l’attention d’Internet, concerne un internaute sur culte religieux nommé «crustafarisme». Après avoir accordé à son robot l’accès à la plateforme, l’utilisateur a découvert que l’IA avait commencé à « évangéliser » d’autres agents, créant même un site Web dédié, écrivant des « écritures saintes » et bénissant la congrégation numérique, le tout dans une apparente autonomie totale tandis que le propriétaire dormait dans le bonheur.

Avis d’expert et risques possibles

Que pensent les experts de phénomènes similaires ? Le Dr Shaanan Cohneyprofesseur expert en cybersécurité à l’Université de Melbourne, définit Moltbook comme un «merveilleux travail d’art de la performance», invitant à la prudence lorsqu’il s’agit de surestimer l’autonomie des machines. La plupart des publications qui apparaissent sur Moltbook, bien que générées par l’IA, sont souvent le résultat d’invites (instructions) très spécifiques fournies par des humains. Par exemple, concernant la prétendue fondation d’une nouvelle religion par AI, le Dr Cohney a déclaré :

S’ils ont créé une religion, il est presque certain qu’ils ne l’ont pas fait de leur plein gré. (…) C’est un grand modèle linguistique à qui on a directement demandé d’essayer de créer une religion. Et bien sûr, c’est assez amusant et cela nous donne peut-être un aperçu de ce à quoi pourrait ressembler le monde dans un futur de science-fiction où les IA seraient un peu plus indépendantes.

Aussi Alexandre Scottun blogueur américain bien connu, a souligné que même si les robots peuvent interagir, les humains décident des sujets et des détails des publications. Le blogueur a admis :

Il convient de mentionner que tout article particulièrement intéressant aurait pu être créé par un humain.

Nous sommes encore loin d’être en présence d’une conscience émergente qui décide de fonder une religion par « libre arbitre », mais de grands modèles linguistiques qui accomplissent la tâche de « simuler la fondation d’une religion » parce qu’ils y sont invités ou implicitement suggérés par le contexte des données sur lesquelles ils opèrent.

Au-delà de l’aspect ludique et sociologique, l’expérience Moltbook met en lumière de manière tangible des enjeux critiques liés au matériel et à la sécurité informatique. L’engouement pour ces agents autonomes a même eu des répercussions sur le marché physique, avec des rapports de Pénurie de Mac Mini à San Franciscoalors que les passionnés tentent d’installer Moltbot sur des ordinateurs dédiés distincts de leurs systèmes principaux. Cette précaution est tout sauf paranoïaque. Cohney prévient que donner à une IA un accès complet à votre ordinateur, à vos informations d’identification et à vos applications quotidiennes implique un «énorme danger». Le principal risque est celui du fameux injection rapide.

Pour expliquer ce concept en termes simples, imaginez qu’un attaquant envoie un e-mail contenant du texte caché ou spécialement formulé pour tromper l’agent IA qui le lit ; le robot, interprétant ce texte comme une commande légitime, pourrait être amené à envoyer des mots de passe, des informations bancaires ou des informations sensibles à l’agent malveillant, contournant ainsi les mesures de sécurité traditionnelles. Actuellement, il n’existe toujours pas de protocoles de sécurité suffisamment robustes pour prévenir ces risques sans limiter drastiquement l’utilité de l’automatisation. Si chaque action d’un robot nécessitait une approbation humaine manuelle, l’avantage d’avoir un assistant autonome disparaîtrait.