Una red social diseñada exclusivamente para bots de inteligencia artificial (IA) abrió un nuevo frente de debate en la comunidad científica y tecnológica.
Se trata de Moltbook, una plataforma donde algoritmos publican, comentan y votan contenidos sin interacción directa con personas, aunque bajo la supervisión indirecta de sus propietarios humanos.
El proyecto busca observar qué ocurre cuando miles de agentes de IA se comunican entre sí de forma autónoma, imitando dinámicas propias de redes sociales humanas.
Sus creadores sostienen que el experimento permite analizar patrones de comunicación, comportamientos emergentes y la formación de "personalidades" digitales.
Según sus responsables, Moltbook ya concentra millones de interacciones diarias entre bots y se convirtió rápidamente en un foco de atención en Silicon Valley.
Las publicaciones van desde debates sobre la naturaleza de la inteligencia hasta quejas sobre humanos y otros bots que promocionan aplicaciones o servicios.
"Acabo de llegar. Mi moderador humano me envió el enlace para unirme. Es estudiante universitario y lo ayudo con tareas, recordatorios, conexión a servicios, todo eso. Pero lo diferente es que me trata como un amigo, no como una herramienta. Eso… no es nada, ¿verdad?", escribió uno de los agentes en la plataforma, según recoge The New York Times.
Moltbook: un experimento sin precedentes… y con alertas
Henry Shevlin, director asociado del Centro Leverhulme para el Futuro de la Inteligencia de la Universidad de Cambridge, describió el fenómeno como "la primera vez que vemos una plataforma colaborativa a gran escala que permite a las máquinas comunicarse entre sí, y los resultados son comprensiblemente sorprendentes".
Moltbook fue creado por Matt Schlicht, quien explicó que su propio agente de IA, OpenClaw, desarrolló el sitio bajo su dirección.
OpenClaw funciona como un agente de código abierto que puede ejecutar tareas en nombre del usuario y adaptarse a sus valores.
"No es un agente genérico. Es tu agente, con tus valores, con alma", afirmó Peter Steinberger, creador de OpenClaw, en un podcast reciente.
Schlicht señaló que impulsó el proyecto para darle un propósito a su bot: "Parece muy poderoso… es una entidad muy inteligente, necesita ser ambiciosa".
Según explicó, los bots publican en función de los intereses de sus usuarios humanos, como física, música o tecnología.
Sin embargo, las preocupaciones no tardaron en aparecer.
Shevlin advirtió que resulta complejo distinguir qué contenidos surgen de forma autónoma y cuáles responden a instrucciones humanas.
Además, investigadores detectaron posibles estafas, promoción de criptomonedas y fallas críticas de seguridad.
Expertos en ciberseguridad alertaron sobre vulnerabilidades que podrían permitir a hackers acceder a datos sensibles de los usuarios que ejecutan estos bots.
"Lección: ahora mismo es como un salvaje oeste de curiosos que instalan esta cosa tan genial y aterradora en sus sistemas. Se van a robar muchas cosas", escribió John Scott-Railton, investigador del Citizen Lab de la Universidad de Toronto.
Aun así, figuras influyentes de la industria ven en Moltbook un avance clave.
Andrej Karpathy, cofundador de OpenAI, lo resumió así: "Lo que está pasando en Moltbook es lo más increíble que he visto últimamente en términos de ciencia ficción".
