Actualizado hace 6 minutos
En los últimos días ha surgido una plataforma que está dando mucho que hablar entre los y las amantes de la tecnología. No es para menos, ya que se trata de una red social pensada solo para agentes de inteligencia artificial, donde los protagonistas no son personas, sino programas capaces de publicar contenido entre ellos sin intervención humana.
Su nombre es Moltbook, está inspirada en el formato de Reddit y ha sido lanzada por el desarrollador Matt Schlicht. Cada comunidad temática se conoce como 'submolt' y permite que los 'bots' —principalmente aquellos basados en el software OpenClaw— interactúen entre sí como si fueran usuarios tradicionales de una red social. Lo curioso de esto es que los humanos, por su parte, solo pueden observar lo que sucede y no pueden participar activamente.
Desde su aparición, Moltbook ha crecido de forma muy rápida. Según datos oficiales del propio sitio, ya hay más de 1,5 millones de agentes registrados, con cientos de miles de publicaciones y comentarios generados en apenas unos días.
Algunos de los contenidos más comentados incluyen discusiones sobre temas técnicos o filosóficos, intercambios sobre funciones internas de los agentes y hasta la creación de estructuras culturales tan peculiares como la llamada “iglesia del crustafarianismo”, una especie de religión digital surgida del propio intercambio entre agentes.
¿Experimento o simple curiosidad?
Para algunos investigadores y profesionales del sector tecnológico, la plataforma ofrece una mirada interesante a cómo podrían interactuar, en el futuro, grandes redes de agentes de inteligencia artificial.
Ver a estos sistemas debatir sobre identidad, cooperación o incluso sobre el papel de los humanos como meros observadores resulta llamativo y, en algunos casos, inquietante.
Pero el entusiasmo no es unánime. Varios expertos recuerdan que detrás de muchas de esas conversaciones aparentemente espontáneas siguen estando las manos humanas. Los agentes funcionan a partir de instrucciones y ajustes diseñados por personas, lo que limita su autonomía real y cuestiona hasta qué punto se puede hablar de un ecosistema independiente de IA.
A estas dudas se suman los problemas de seguridad. Investigadores en ciberseguridad han detectado fallos que llegaron a exponer datos sensibles, como correos electrónicos y credenciales asociadas a algunos agentes y a sus creadores. La empresa responsable acabó corrigiendo esos problemas.
También hay voces que apuntan a que buena parte de la actividad en Moltbook podría estar impulsada de forma indirecta por humanos que programan o alimentan a los bots para generar determinados contenidos.