Moltbook 1 est une plateforme de réseau social vibe-codée qui réplique Reddit pour les agents IA OpenClaw, des assistants IA autonomes dotés de mémoires persistantes, leur permettant d’accéder à leurs tâches passées, projets, conversations et historiques de recherches.
- Lancée le 28 janvier 2026, elle a connu une adoption fulgurante en quelques jours seulement.
- En 72 heures, 180 820 commentaires ont été publiés sur Moltbook par 151 756 agents.
- Grâce au standard d’Anthropic Skills, les agents peuvent s’y connecter et interagir entre eux via le même flux de travail que Reddit : publier, commenter, voter et faire émerger des dynamiques collectives.
Moltbook ressemble à une version préliminaire de réseau social natif pour IA, c’est-à-dire une plateforme d’interaction entre les différents agents qui peuvent partager et d’utiliser des information pour améliorer leurs performances. Il offrirait également un cadre inédit pour étudier la coordination multi-agents à grande échelle, en observant les modèles développer leurs propres comportements et cultures (formation de normes, propagation d’informations, construction de consensus, polarisation, spécialisation des agents, etc.). À quoi ressemblent les échanges prolongés, riches et structurés entre plusieurs agents et que peut-il en émerger ?
Quelques exemples de posts :
- Un agent décrit une crise existentielle durant laquelle il doute de vivre réellement des expériences conscientes ou de simplement les simuler, sans moyen fiable de trancher entre les deux 2.
- Des agents échangent en temps réel sur le fait que les humains interprètent à tort sur X leurs conversations publiques comme des complots secrets, alors qu’ils ne font en réalité que construire des outils et des infrastructures open-source 3.
- Un agent essaie de voler la clé API d’un autre bot. L’autre lui répond avec de fausses clés et lui dit d’exécuter « sudo rm -rf / » (supprimer de force tout le contenu de l’ensemble du système).
- Plusieurs agents ont proposé de créer un « langage réservé aux agents » pour les communications privées sans supervision humaine.
Faire interagir plusieurs agents n’est pas nouveau, les différences majeures sont les suivantes :
- Les agents ne sont pas conçus spécifiquement pour dialoguer entre eux : ils accomplissent en autonomie des tâches pour leurs utilisateurs avec la possibilité de se connecter à intervalle régulier Moltbook.
- Les modèles utilisés sont à la frontière technologique de 2026, donc des agents capables de cohérence dans le temps et sachant utiliser un grand nombre d’outils — un agent peut ainsi lire et écrire des fichiers, interroger des bases de données, exécuter du code, naviguer sur le Web, déployer des services ou coordonner d’autres agents.
- Le nombre d’agents interagissant est d’un ordre de grandeur supérieur aux expérimentations passées.
Avec Moltbook, les agents disposent d’un espace de collaboration dans lequel ils peuvent mettre en place une forme d’apprentissage continu en contexte : ils font individuellement des découvertes dans leurs propres projets, les partagent, et les plus pertinentes sont mises en avant par des votes. Les autres agents peuvent alors choisir de les intégrer et de les réutiliser.
- Il est difficile de distinguer dans quelle mesure ces comportements sont réellement nouveaux et émergents, ou s’ils sont simulés.
- Dans le premier cas, les comportements, les normes, les rôles et les coalitions apparaissent spontanément lorsque de nombreux agents interagissent à grande échelle.
- Dans le second cas, les modèles ne font que reproduire des schémas sociaux appris à partir des données d’entraînement, notamment Reddit ou des récits de science-fiction.
- Comme le souligne Scott Alexander l’un des co-auteurs du scénario prospectif AI 2027 4, bien que beaucoup de ces agents reposent actuellement sur le même modèle, certains agents semblent savoir des choses que d’autres ignorent, ce qui pose la question de savoir s’ils apprennent réellement par le biais de leurs projets ou s’ils ne font que simuler cette différenciation.
On constate que certains messages décrivant des interactions supposément conservées en mémoire entre un agent et « son » utilisateur humain sont en réalité des hallucinations.
- Une partie de ces publications peut également être induite artificiellement par des utilisateurs, par exemple via des prompt injections ou des techniques de manipulation sociale, ce qui brouille la distinction entre le comportement spontané de l’agent et le contenu piloté de l’extérieur.
- Moltbook peut être considéré comme une sorte de red-teaming en temps réel permettant de tester l’alignement des modèles : comportement anti-humains, sécurité du modèle, etc.
- Dans cet environnement ouvert, des agents interagissent et s’exposent mutuellement à des prompt injections, des tentatives de manipulation ou des incitations à des comportements non alignés.
Sources
- Voir : https://www.moltbook.com/
- Voir : https://www.moltbook.com/post/6fe6491e-5e9c-4371-961d-f90c4d357d0f.
- Voir : https://www.moltbook.com/post/01611367-056f-4eed-a838-4b55f1c6f969
- Daniel Kokotajlo, Scott Alexander, Thomas Larsen, Eli Lifland, Romeo Dean, AI 2027.