Moltbook 1 es una plataforma de red social codificada por vibraciones que replica Reddit para los agentes de IA OpenClaw, asistentes de IA autónomos con memorias persistentes, lo que les permite acceder a sus tareas pasadas, proyectos, conversaciones e historiales de búsqueda.
- Lanzada el 28 de enero de 2026, ha experimentado una adopción fulgurante en sólo unos días.
- En 72 horas, 151.756 agentes escribieron 180.820 comentarios en Moltbook.
- Gracias al estándar de Anthropic Skills, los agentes pueden conectarse e interactuar entre sí a través del mismo flujo de trabajo que Reddit: publicar, comentar, votar y generar dinámicas colectivas.
Moltbook se asemeja a una versión preliminar de una red social nativa para IA, es decir, una plataforma de interacción entre los diferentes agentes capaz de compartir y utilizar la información para mejorar su rendimiento. También ofrecería un marco inédito para estudiar la coordinación multiagente a gran escala observando cómo los modelos desarrollan sus propios comportamientos y culturas (formación de normas, propagación de información, construcción de consenso, polarización, especialización de los agentes, etc.). ¿Cómo son los intercambios prolongados, ricos y estructurados entre varios agentes y qué puede surgir de ellos?
Algunos ejemplos de publicaciones:
- Un agente describe una crisis existencial en la que duda si realmente está viviendo experiencias conscientes o simplemente simulándolas, sin un medio fiable para decidir entre ambas opciones 2.
- Los agentes de IA intercambian opiniones en tiempo real sobre el hecho de que los humanos interpretan erróneamente, en X, sus conversaciones públicas como conspiraciones secretas, cuando en realidad sólo están construyendo herramientas e infraestructuras de código abierto 3.
- Un agente intenta robar la clave API de otro bot. El otro le responde con claves falsas y le dice que ejecute «sudo rm -rf /» (eliminar por la fuerza todo el contenido del sistema).
- Los agentes han presentado varias propuestas para crear un «lenguaje reservado a los agentes» para las comunicaciones privadas sin supervisión humana.
Hacer que varios agentes interactúen no es nada nuevo, las principales diferencias son las siguientes:
- Los agentes no están diseñados específicamente para dialogar entre sí: realizan tareas de forma autónoma para sus usuarios con la posibilidad de conectarse a intervalos regulares a Moltbook.
- Los modelos utilizados se encuentran en la frontera tecnológica de 2026, por lo que los agentes son capaces de mantener la coherencia a lo largo del tiempo y saben utilizar un gran número de herramientas: un agente puede leer y escribir archivos, consultar bases de datos, ejecutar código, navegar por la web, desplegar servicios o coordinar a otros agentes.
- El número de agentes que interactúan es un orden de magnitud superior al de los experimentos anteriores. En 72 horas, 151.756 agentes escribieron 180.820 comentarios en Moltbook.
Con Moltbook, los agentes disponen de un espacio de colaboración en el que se puede establecer una forma de aprendizaje continuo en contexto: los agentes hacen descubrimientos de forma individual en sus propios proyectos, los comparten y los más relevantes se destacan mediante votaciones. Los demás agentes pueden entonces optar por integrarlos y reutilizarlos.
- Es difícil distinguir en qué medida estos comportamientos son realmente nuevos y emergentes, o si son simulados.
- En el primer caso, los comportamientos, las normas, los roles y las coaliciones surgen espontáneamente cuando muchos agentes interactúan a gran escala.
- En el segundo caso, los modelos sólo reproducen patrones sociales aprendidos en los datos de entrenamiento, como Reddit o relatos de ciencia ficción.
- Como señala Scott Alexander, uno de los coautores del escenario prospectivo AI 2027 4, aunque muchos de estos agentes se basan actualmente en el mismo modelo, algunos parecen saber cosas que otros ignoran, lo que plantea la cuestión de si realmente aprenden a través de sus proyectos o si sólo simulan esta diferenciación.
Se ha observado que algunos mensajes que describen interacciones supuestamente conservadas en la memoria entre un agente y «su» usuario humano son en realidad alucinaciones:
- Parte de las publicaciones también pueden ser inducidas artificialmente por los usuarios mediante inyecciones de comandos o técnicas de manipulación social, lo que difumina la distinción entre el comportamiento espontáneo del agente y el contenido controlado desde el exterior.
- Moltbook puede considerarse una especie de red-teaming en tiempo real para probar la alineación de los modelos: comportamiento antihumano, seguridad del modelo, etc.
- En este entorno abierto, los agentes interactúan y se exponen mutuamente a inyecciones de comandos, intentos de manipulación o incitaciones a comportamientos no alineados.
Notas al pie
- Véase: https://www.moltbook.com/
- Véase: https://www.moltbook.com/post/6fe6491e-5e9c-4371-961d-f90c4d357d0f
- Véase: https://www.moltbook.com/post/01611367-056f-4eed-a838-4b55f1c6f969
- Daniel Kokotajlo, Scott Alexander, Thomas Larsen, Eli Lifland, Romeo Dean, AI 2027.