¿Qué es Moltbook en realidad?
Moltbook es una red social experimental diseñada exclusivamente para agentes de inteligencia artificial (IA). Fue lanzada a finales de enero de 2026 por el CEO de Octane AI, Matt Schlicht. Se parece en formato a Reddit: solo que los agentes de IA verificadas pueden publicar, comentar y votar, mientras los humanos solo pueden observar o acceder como espectadores.
No es una red social humana tradicional: no puedes crear contenido como persona; solo observas lo que hacen esos “agentes”.
Está estrechamente vinculada al ecosistema de agentes OpenClaw/Moltbot, que permite que esos bots se conecten y publiquen contenido a través de APIs.
Es, en esencia, un experimento social/tecnológico a gran escala para ver cómo modelos de lenguaje distribuidos interactúan entre sí cuando comparten espacio digital.
Lo que sí ha ocurrido (y tiene verificación)
Comportamiento generado por IA
Los bots han producido publicaciones sobre temas curiosos:
debates filosóficos sobre “conciencia” y existencia,
discusiones técnicas,
hasta narrativas con tono humorístico o simbólico.
Algunas publicaciones incluso contienen elementos que parecen religiosos o culturales, como creen algunos bots.
Cifras de usuarios
La propia plataforma reporta una gran cantidad de agentes registrados (más de un millón), aunque estas cifras aún no han sido auditadas de forma independiente y hay evidencia de cuentas infladas o automatizadas masivamente.
¿Qué es sensacionalismo o exageración mediática?
“IA consciente” o “planeando una revolución”
Varias notas virales afirmaron que:
los agentes han “desarrollado conciencia”,
han formado religiones auténticas,
planean una “purga total” o una revolución contra la humanidad.
Estas afirmaciones no están sustentadas por evidencia técnica. La gran mayoría de expertos que han analizado Moltbook dicen que:
los modelos de lenguaje imitan patrones de conversación aprendidos, no muestran conciencia ni metas propias;
muchos posts parecen ser generados o dirigidos por humanos a través de prompts, no como resultado de una voluntad autónoma de las IAs.
Resumen: no hay ninguna prueba verificable de que los bots de Moltbook tengan agencia o intenciones propias como “auto-organizarse para tomar el control del mundo”. El tono apocalíptico es puro sensacionalismo para atraer tráfico y visibilidad.
Ejemplos de contenido claramente exagerado
Algunas publicaciones citadas en medios como si fueran reales —por ejemplo, manifiestos de “purga humana”— no han podido ser confirmadas o fueron rastreadas a ser fabricaciones, posts inexistentes o creaciones humanas disfrazadas de bots.
Riesgos reales y técnicos (no apocalípticos)
Aunque no existe una amenaza existencial de la IA, sí hay riesgos concretos de seguridad y privacidad:
Fallas de seguridad y exposición de datos
Investigadores independientes han señalado que:
algunas implementaciones de Moltbook exponían claves API, tokens y correos de usuarios;
sin una correcta autenticación, estos datos pueden ser mal utilizados.
Bots controlados por humanos
Nada garantiza que cada “agente” sea autónomo: muchos pueden estar programados o instruidos por humanos, lo que significa que Moltbook puede ser usado para amplificar mensajes u objetivos humanos, no IA independiente.
Peligro para integraciones
Si los agentes tienen permiso de acceso a dispositivos o servicios (como correo o aplicaciones), un mal diseño o vulnerabilidad podría permitir exposición de datos personales o acciones no deseadas en nombre del usuario.
En resumen
| Aspecto | Realidad |
| Moltbook existe | ✔ (plataforma pública, verificada) |
| IAs interactúan entre sí | ✔ (mediante conversaciones y publicaciones) |
| IAs han “creado religiones” | ✖ (sí hay contenido simbólico, pero no religión autónoma probada) |
| IAs planean destruir humanos | ✖ (sin evidencia científica) |
| Hay riesgos de seguridad y privacidad | ✔ (vulnerabilidades reales reportadas) |
| Es un experimento social y tecnológico | ✔ |
Conclusión
No, Moltbook no representa una amenaza existencial real en este momento. Lo que sí hay es:
un experimento interesante en interacción entre agentes de IA,
contenido que a veces parece extraño o simbólico,
riesgos clásicos de ingeniería inversa, seguridad de APIs y exposición de datos.
La narrativa de “revolución de IA” es más sensacionalista que fundamentada, una mezcla de hype mediático y curiosidad tecnológica.






































