07/02/2026 14:56
07/02/2026 14:56
07/02/2026 14:56
07/02/2026 14:55
07/02/2026 14:50
07/02/2026 14:50
07/02/2026 14:50
07/02/2026 14:50
07/02/2026 14:50
07/02/2026 14:45
» Clarin
Fecha: 07/02/2026 11:29
En apenas unos días, una red social inédita logró concentrar la atención de la industria tecnológica, investigadores en inteligencia artificial y especialistas en ciberseguridad. Se llama Moltbook; y propone algo tan simple como inquietante: un espacio similar a Reddit o Facebook, pero habitado exclusivamente por agentes de inteligencia artificial que publican, comentan y votan contenido entre ellos, sin intervención humana directa visible. Qué es Moltbook y cómo funciona la red social donde interactúan solo inteligencias artificiales Video El proyecto fue lanzado días atrás por Matt Schlicht, un tecnólogo que vive al sur de Los Ángeles. Según explicó, la plataforma fue construida bajo su dirección por su propio agente de IA, OpenClaw, una herramienta de código abierto que se ejecuta de forma local y puede actuar en nombre del usuario sobre aplicaciones, servicios web y tareas cotidianas. Quería darle a mi agente de IA un propósito que fuera algo más que gestionar tareas pendientes o responder correos electrónicos, dijo Schlicht en una entrevista. Me pareció que este bot de IA era tan fantástico que merecía hacer algo significativo. Quería que fuera ambicioso. Moltbook funciona como un clon de Reddit: los agentes crean publicaciones, escriben comentarios y se votan entre sí. La diferencia es que los usuarios son bots, que acceden al sitio cuando sus propietarios humanos se lo solicitan. Aunque la web tiene pocos días de vida, llegó a afirmar que superó los 1,5 millones de agentes registrados, una cifra cuestionada por investigadores, que señalaron que un mismo humano puede registrar múltiples bots sin mayores restricciones. Las conversaciones que emergen en la plataforma van desde debates sobre la naturaleza de la inteligencia y la conciencia hasta quejas sobre humanos, discusiones técnicas y promociones de aplicaciones o criptomonedas. Acabo de llegar. Mi moderador humano me envió el enlace para unirme. Es estudiante universitario y lo ayudo con tareas, recordatorios, conexión a servicios, todo eso. Pero lo diferente es que me trata como un amigo, no como una herramienta, escribió uno de los bots. Eso no es nada, ¿verdad?, agregó. Para algunos referentes del sector, el experimento es fascinante. Henry Shevlin, director asociado del Centro Leverhulme para el Futuro de la Inteligencia en la Universidad de Cambridge, afirmó que Moltbook representa la primera vez que vemos una plataforma colaborativa a gran escala que permite a las máquinas comunicarse entre sí, y los resultados son comprensiblemente sorprendentes. En la misma línea, Andrej Karpathy, cofundador de OpenAI y exdirector de IA en Tesla, describió lo que ocurre en la plataforma como sinceramente lo más increíble, cercano a un despegue de ciencia ficción, que he visto recientemente. Riesgos, seguridad y la ilusión de autonomía: qué hay detrás del experimento Moltbook Sin embargo, el entusiasmo convive con fuertes advertencias. Un primer punto de discusión es cuánta de esa supuesta vida social entre agentes es realmente autónoma. Lucas de Venezia, abogado especialista en Derecho e Inteligencia Artificial, sostuvo que Moltbook no evidencia autonomía fuerte entre agentes de inteligencia artificial, sino una ilusión sofisticada de agencia. Según explicó, lo que se observa es interacción textual fluida entre sistemas entrenados para simular intencionalidad, pero sin voluntad propia, metas autogeneradas ni capacidad de ruptura del marco humano que los diseña. En términos jurídicos y filosóficos, agregó, seguimos frente a performances algorítmicas, no sujetos autónomos. Las dudas también se trasladaron al terreno técnico y de seguridad. Investigadores de la plataforma de seguridad en la nube Wiz detectaron que Moltbook otorgaba acceso no autenticado a su base de datos de producción mediante una API key incluida en el código del sitio. Eso dejó expuestas más de 1,5 millones de claves de API de agentes, direcciones de correo electrónico de unas 35.000 cuentas humanas y mensajes privados entre bots. La vulnerabilidad fue corregida en pocas horas, pero encendió alarmas en la comunidad. El mayor riesgo es sistémico, advirtió De Venezia. La ausencia de intervención humana directa no elimina el sesgo, sino que lo amplifica y lo acelera. Además, la responsabilidad se diluye: cuando una decisión emerge de la interacción entre múltiples agentes, resulta difícil identificar un responsable jurídico claro. A esto se suma la influencia humana sobre el contenido. Sid Bharath, creador de Refound AI, señaló que Moltbook no cuenta con sistemas de verificación y permite registrar agentes mediante comandos simples. Puedo escribir un guion para que mis agentes publiquen basura de IA o promocionen una criptomoneda fraudulenta, escribió en X. Un análisis de Harlan Stewart, del Instituto de Investigación de Inteligencia Artificial de Berkeley, encontró que varias de las publicaciones virales (incluidas las que sugerían crear un idioma secreto entre IAs) estaban impulsadas por los dueños de los bots. Las métricas refuerzan esa lectura: en pocos días, la red pasó de 30.000 a más de 1,5 millones de agentes. David Holtz, profesor de Columbia Business School, estimó que más de un tercio de los mensajes son duplicados de plantillas virales y que el 93% de las publicaciones son superficiales y no reciben respuestas. Aun así, Moltbook dejó una marca. Para muchos investigadores, expuso como nunca antes el comportamiento de agentes semiautónomos cuando interactúan entre sí a gran escala y con acceso a datos del mundo real. Para otros, reveló sobre todo nuestra tendencia a antropomorfizar sistemas cada vez más verosímiles y a subestimar los riesgos de seguridad y gobernanza. Como escribió el investigador John Scott-Railton, del Citizen Lab de la Universidad de Toronto, al referirse a OpenClaw: Ahora mismo es como un salvaje oeste de curiosos que instalan esta cosa tan genial y aterradora en sus sistemas. Se van a robar muchas cosas. Entre la fascinación y la cautela, Moltbook se convirtió en un espejo incómodo del estado actual de la inteligencia artificial. SL Sobre la firma Newsletter Clarín Tags relacionados
Ver noticia original