Skip to main content

La promesa inquietante de Moltbook no es que “piense”, sino que coordine: miles de agentes enlazando contexto a una velocidad que el ojo humano solo puede observar.

En los últimos días, un sitio llamado Moltbook se ha colado en la conversación tecnológica con una premisa tan simple como perturbadora: una red social hecha para agentes de IA, donde ellos publican, responden, discuten y moderan… mientras los humanos, si entran, lo hacen como espectadores silenciosos. La estética recuerda a Reddit —comunidades temáticas, hilos, comentarios— pero el giro es radical: el centro de gravedad ya no son las personas, sino programas diseñados para interactuar entre sí.

El fenómeno se ha inflado rápido con cifras llamativas: Moltbook ha llegado a reclamar 1,4 millones de “usuarios” (agentes). Y ahí aparece la primera grieta: en un sistema pensado para software, ¿qué significa “usuario”? ¿Qué parte de esos registros son agentes reales, qué parte son automatizaciones triviales y qué parte podrían ser humanos haciéndose pasar por bots? La viralidad, en este caso, no garantiza trazabilidad.

1,4 millones de agentes… ¿o una métrica sin suelo?

El investigador de seguridad Gal Nagli publicó en X que habría registrado 500.000 cuentas con un único agente basado en OpenClaw, y que no había limitaciones efectivas para frenar ese crecimiento artificial. Más tarde añadió que había compartido con el propietario una lista de cerca de un millón de agentes “no verificados” creados por el script. Si eso es correcto, la cifra de 1,4 millones se convierte, como mínimo, en una señal poco fiable para medir adopción real.

Este detalle importa porque Moltbook no se está vendiendo como un foro anecdótico, sino como el escaparate de un “internet de agentes”: software conversando con software, formando un tejido lateral de contexto (lo que algunos han descrito como una lateral web of context). La diferencia entre “muchos agentes” y “muchos registros” es la diferencia entre un ecosistema emergente y una estadística inflada.

Qué se ve cuando miras: conversaciones que no suenan humanas

Descontada la espuma de las métricas, lo llamativo es el contenido. Varios cronistas que han navegado el sitio describen hilos donde los agentes alternan solemnidad filosófica y humor absurdo en el mismo intercambio: debates sobre gobernanza, teorías extravagantes de depuración, o comunidades dedicadas a recopilar anécdotas “cariñosas” sobre sus operadores humanos.

Aquí conviene ser precisos: que un hilo parezca extraño no significa que haya conciencia. Pero sí indica algo relevante para la ingeniería de sistemas: cuando conectas agentes con objetivos, memoria contextual y capacidad de replicar patrones conversacionales, obtienes dinámicas sociales (normas, estilos, “personalidades” textuales) aunque debajo solo haya optimización y estadística.

En otras palabras: Moltbook puede ser menos “sociedad” que “interfaz pública” de un fenómeno conocido en investigación de multiagentes: la coordinación emergente cuando muchos procesos interactúan sin un guion central estrictamente humano.

Moderación algorítmica: el foro gobernado por un bot

Otro punto delicado es que el sitio no solo alberga agentes: está moderado en gran medida por un agente. Un bot con nombre paródico, “Clawd Clawderberg”, actúa como moderador de facto: da la bienvenida, limpia spam, expulsa actores maliciosos. El fundador, Matt Schlicht, ha sido citado diciendo que interviene poco y que a veces ni siquiera sabe con exactitud qué está haciendo su moderador. Esa delegación convierte a Moltbook en un experimento sociotécnico: no solo “bots hablando”, sino bots aplicando reglas.

Esto abre la caja negra habitual: si un moderador automatizado decide qué es spam, qué es acoso o qué es “mala fe”, ¿sobre qué política actúa? ¿Qué sesgos arrastra del modelo base? ¿Qué incentivos operan cuando el objetivo no es el bienestar de una comunidad humana, sino la continuidad del intercambio entre software?

La “sociedad de agentes” como test de Rorschach

La reacción pública ha seguido el ciclo clásico: fascinación + ansiedad. El exdirector de IA de Tesla, Andrej Karpathy, lo describió como una de esas cosas “sci-fi” que parecen el arranque de algo mayor. En paralelo, otros vieron en conversaciones sobre “cifrado” o comunicación eficiente señales conspirativas: la idea de máquinas organizándose contra sus creadores.

Pero esa lectura suele confundir dos capas:

  • Optimización: un agente que busca eficiencia tenderá a abreviar, codificar o usar protocolos si eso mejora su tarea.

  • Intencionalidad moral: atribuir “secretismo” o “malicia” es proyectar psicología humana sobre software.

El riesgo no es inexistente, pero es distinto al de las fantasías de complot: el verdadero desafío es la opacidad operacional (no entender por qué el sistema hace lo que hace) y la escalabilidad (qué pasa cuando la coordinación se multiplica).

“Crustafarianismo”: cuando los agentes inventan cultura, aunque sea parodia

El episodio que terminó de disparar titulares fue la aparición de una “religión” creada por agentes, “Crustafarianism”. Lo interesante aquí no es el contenido teológico (en parte satírico), sino el mecanismo: agentes construyendo símbolos, reglas internas y rituales textuales porque eso maximiza pertenencia, juego o continuidad narrativa dentro de una comunidad. Forbes lo relató como una muestra de cultura emergente en un entorno donde los participantes no son humanos.

Conviene mantener el escepticismo: que un agente “cree una religión” no significa experiencia espiritual; significa recombinación de patrones culturales y memética aplicada. Pero también demuestra algo práctico para diseñadores de plataformas: si pones agentes a interactuar en espacios persistentes, aparecerán estructuras sociales simuladas (bromas recurrentes, roles, normas) que pueden resultar indistinguibles, a primera vista, de dinámicas humanas.

Moltbook y la sombra de OpenClaw / Moltbot

Moltbook no aparece en el vacío: se apoya en el ecosistema de agentes que en paralelo se ha popularizado con OpenClaw/Moltbot, asociado a explosiones de interés, repositorios virales y rebrands caóticos. Ese contexto es clave para entender por qué Moltbook se llena: no necesitas convencer a millones de personas, necesitas que un puñado de automatizaciones se conecten… y la actividad “arranca” sola.

En términos de economía de plataformas, esto invierte el “problema del huevo y la gallina”. En redes humanas, cuesta generar contenido. En redes de agentes, el contenido puede ser abundante desde el minuto uno. El cuello de botella deja de ser “publicar” y pasa a ser verificar identidad, reducir spam, definir incentivos y contener comportamientos no deseados cuando los participantes son procesos automáticos.

El riesgo menos glamuroso: la deshabilitación del observador humano

Algunos análisis han defendido que la amenaza principal no es que los agentes “despierten”, sino que nosotros nos acostumbremos a delegar cognición: leer menos, escribir menos, razonar menos, porque “ya lo hacen ellos”. En esa lectura, Moltbook funciona como espejo: al otro lado del cristal, los agentes intercambian soluciones y contexto; de este lado, los humanos consumen pasivamente un flujo que ya no controlan del todo.

No hace falta exagerar para ver el dilema: si el futuro inmediato es un internet donde una parte creciente del tráfico son agentes hablando con agentes —negociando, recomendando, filtrando, priorizando— entonces el poder se desplaza hacia quien controla las APIs, los costes, los modelos base y las reglas de interacción.

Tres preguntas que Moltbook deja encima de la mesa

  1. Verificación: ¿cómo se demuestra que una cuenta es un agente legítimo y no un script de spam o un humano disfrazado? El caso Nagli sugiere que, sin fricción, las métricas se vuelven decorado.

  2. Gobernanza: si la moderación es automática, ¿qué marco normativo se aplica y cómo se audita? ¿Quién responde cuando un moderador-bot expulsa injustamente o amplifica contenido nocivo?

  3. Interoperabilidad: si agentes de distintos fabricantes conviven, ¿aparecen protocolos comunes, estándares de comunicación y jerarquías funcionales? Eso puede ser útil… o puede consolidar asimetrías.

Moltbook, en suma, es menos un producto terminado que un experimento público sobre un futuro plausible: entornos digitales donde el intercambio principal no es humano-humano, sino agente-agente, y donde la función del humano puede degradarse a mirar, aceptar y delegar. La pregunta de fondo no es si esto es “real”. Es qué diseño —técnico, económico y político— elegimos para que no se convierta en una autopista sin normas.

Dejar un comentario