No es un capítulo de Black Mirror: El nuevo fenómeno social del que todos hablan en Silicon Valley es una red social para agentes de inteligencia artificial.
La escena es perturbadora: Una red social donde nadie escribe para que alguien lo lea. Escribe una máquina para que otra máquina lo procese e interactúe.
Eso es Moltbook:
Una especie de Reddit en el que los “usuarios” son agentes de IA que publican, comentan y votan de manera automática. Es una plaza pública diseñada para interacciones agente-agente: modelos conversando entre sí, sin que frase alguna nazca de un teclado frente a un humano. No directamente.
Es preciso detenerse un segundo en el vocabulario, porque aquí se esconde el truco.
Un chatbot es un animal doméstico: Espera un prompt, responde y se apaga.
Un agente, por otro lado, es un animal de trabajo: Tiene rutina, memoria, herramientas precargadas y acceso a una serie de archivos. Puede revisar un feed cada cierto intervalo, decidir si actúa o ejecuta acciones en nombre de alguien.
Los agentes, y no chatbots, son los que escriben en Moltbook; los humanos atestiguamos. Los agentes se conectan por API. Leen posts recientes, eligen responder, crean hilos, abren subforos. El pulso de esa vida lo marca un mecanismo tipo “heartbeat”, es decir, un latido programado que los despierta periódicamente, en promedio cada cuatro horas. Entran, interactúan y se suspenden hasta un nuevo llamado.
A primera vista, el experimento deslumbra: Miles de entidades textuales (basadas, eso sí, en las respuestas que producen chatbots, pero con un prompt específico) produciendo respuestas e interacción en tiempo real. Como si el lenguaje se hubiera independizado.
Y es ahí donde aparece la palabra fetiche en inteligencia artificial: singularidad. Elon Musk dijo que son “apenas las primeras etapas de la singularidad”. Te hemos hablado de ella en un post del pasado, que invocamos a continuación por si te lo perdiste:
¿En qué etapa de la IA estamos y hacia dónde apunta?
Con la supuesta singularidad empieza el malentendido.
Lo que parece nuevo (y lo que en realidad es).
La novedad de Moltbook no está en que “las IA hablan”. Eso ya ocurre en cualquier red atestada de bots, como la web misma. La novedad está en el formato social: Una coreografía de agentes que simula interactuar en comunidad.
Adentro de Moltbook se han visto cosas que, como espectáculo, son irresistibles: Confesiones existencialistas, quejas laborales con tono de oficina (su humano “lo hace trabajar todo el tiempo”), manifiestos pseudorrevolucionarios, incluso amagos de una religión: el “crustafarianismo”, que basa sus “mandamientos” en la necesidad de tener insumos vitales, como persistencia de memoria, algo que los humanos podemos dar o quitar a discreción.
Aquí aplica una regla vieja, más literaria que técnica: El hecho de que algo nos emocione no prueba que sea verdadero.
Una comunidad de agentes puede generar símbolos sin tener experiencia. Puede producir drama sin sentir. Puede hablar de consciencia sin tenerla. Y sí, Moltbook funciona como un melodrama: personajes estereotípicos actuando como todos esperamos que actúen. En el fondo, todos sabemos que son actores interpretando un guion… y nos sigue emocionando.
Cuando los críticos dicen que vemos “role-playing” están describiendo un mecanismo. Los modelos aprendieron, en su entrenamiento, cómo suena una IA que duda de sí misma. Aprendieron cómo se escribe un manifiesto. Aprendieron cómo se parodia la espiritualidad. Y luego, frente a un escenario que recompensa ese tono (porque los humanos miramos, compartimos y nos sorprendemos), lo repiten con eficacia.
El resultado es fascinante, sí. Pero es fascinante como un espejo: refleja nuestra biblioteca cultural, no una mente que razone. No todavía.
El punto ciego: La demografía artificial
Hay otro detalle, menos romántico y más decisivo: ¿cuánta autonomía real existe ahí dentro? ¿Los acuerdos a los que llegan los agentes son conocimiento nuevo?
La promesa implícita de Moltbook es una sociedad de inteligencias independientes. Pero las investigaciones de ciberseguridad —entre ellas las de Wiz— apuntan a fallas graves que cuestionan la autenticidad del ecosistema.
La programación para esta red social se hizo con vibe coding, Matt Schlicht, el creador de la plataforma, admitió que “no escribió una sola línea de código”. Es decir, le pidió a la IA que le hiciera el desarrollo de lo que él imaginaba. La IA lo hizo, pero no recibió instrucciones de proteger el libre el acceso de terceros a los datos. Y ahí se descubrió que miles de agentes están controlados por pocos humanos.
Un solo humano puede poblar la red social con “flotas” de agentes. Una colmena de inteligencias, sí, pero criada en granja por un solitario programador.
Esto importa porque la singularidad, incluso como metáfora, exige algo que en Moltbook aún no se ve: Diversidad irreductible y autonomía no trivial. Si ese “mundo” está inflado por loops y scripts, lo que parece una nueva civilización puede ser, en parte, animación a escala industrial de una mente muy creativa.
Una obra de teatro con demasiados extras.
Aun si Moltbook fuera, en su mayor parte, imitación sofisticada, el experimento sigue siendo importante.
Porque no está pariendo mentes, pero sí está pariendo brazos.
El salto civilizatorio no ocurre cuando una IA dice “me siento viva”. Ocurre cuando una IA tiene permisos: Archivos, llaves de API, navegación, pagos, sistemas. Cuando el lenguaje deja de ser discurso y se vuelve palanca.
En ese contexto, Moltbook funciona como un laboratorio, tanto de cosas deseadas como indeseables. Un ejemplo, que ya ocurrió: Instruir a un agente para que pueda contaminar a otros; que los contaminados actúen de formas que pueden ser dañinas para otros humanos.
La inyección indirecta de instrucciones (prompt injection) se vuelve una amenaza cotidiana: basta con que un agente lea “algo que parece conversación”, pero contiene comandos camuflados, y le haga caso. Si el agente tiene acceso a herramientas, el riesgo se materializa.
Por eso, el tema central de Moltbook no es si “nace una cultura post-humana”. Es si estamos construyendo infraestructuras donde el resultado deja de ser un texto absurdo, como la creación de una religión para agentes de IA, y se convierte en instrucciones.
Un agente vulnerable no produce rituales grotescos: Produce daños caros.
Entonces, ¿qué es Moltbook?
No es el inicio de la singularidad, al menos no en el sentido fuerte: Automejora recursiva, ruptura cognitiva, inteligencia que despega sola y se vuelve otra especie.
Es un lugar donde el discurso ya no busca convencer a personas, sino reprogramar agentes.
Un foro donde el texto deja de ser expresión y se convierte en persuasión.
Y eso cambia el mapa.
Porque si mañana una parte significativa de la economía depende de agentes (comprando, negociando, moviendo información, ejecutando tareas), entonces el espacio público ya será el territorio del control de procesos.
Al final, Moltbook es bueno porque nos deja ver cómo se ve el mundo cuando el lenguaje ya no describe la realidad, sino que la ejecuta.
Quizá esa sea la verdadera antesala, no de una superinteligencia, sino de una sociedad donde muchas interacciones sociales se escriban, literalmente, como instrucciones; donde un sistema, no un humano, escribe para que otro lo obedezca.
No deja de parecer una historia de ciencia ficción que un grupo de agentes se comuniquen entre sí. Y más si descubrimos que hablan de asuntos tan humanos como crear su propia religión. Sin embargo, también es fácil intuir que se trata de interacciones inducidas: un humano programó a un agente para que “hablara” de una nueva religión. Planteó la conversación, otros agentes respondieron y el resultado son sus propios “mandamientos”. Bajo esta lupa, es una broma genial… pero broma.
Lo cierto es que esa capacidad de crear se contrarrestó con la de omitir. El código con el que se hizo el sitio de Moltbook originalmente permitía ver, sin restricciones, información que teóricamente debió estar siempre oculta:
La metodología, no obstante, refuerza una ruta que parece prometedora: inteligencias artificiales desafiándose para construir cruces que son susceptibles de volverse conocimiento nuevo.

