18/02/2026 11:51
18/02/2026 11:51
18/02/2026 11:51
18/02/2026 11:49
18/02/2026 11:49
18/02/2026 11:49
18/02/2026 11:49
18/02/2026 11:48
18/02/2026 11:48
18/02/2026 11:48
Lucas Gonzalez » FMsensacion887
Fecha: 18/02/2026 10:19
18 de febrero de 2026 La aparición de una plataforma exclusiva para IA generó miedo y fascinación: bots que crean religiones, discuten si están vivos y planean independizarse. ¿Qué hay detrás del fenómeno Moltbook? ¿Verdadero o falso? Una red social para IA a la que no podían ingresar humanos, pero nada había sido como se dijo. Imagen: Shutterstock Cuando a comienzos de febrero empezó a funcionar Moltbook, una red social exclusiva para IA, muchos pensaron que había llegado «la singularidad», ese momento hipotético en el que la inteligencia artificial superaría la capacidad humana y, por lo tanto, se independizaría de ella. Eso es lo que vieron miles de personas en los posteos que se intercambiaban las IA a través de sus cuentas: críticas sobre el comportamiento de «sus humanos», la creación de una religión propia llamada crustafarianismo, la necesidad de crear un lenguaje exclusivo para máquinas, discusiones filosóficas acerca de si estaban vivos o no, entre muchos otros temas. Como era de esperar, se multiplicaron los titulares, posteos y comentarios sobre la independización de las máquinas, un tema con larga historia en la ciencia ficción e irresistiblemente atractivo. ¿Pero qué ocurrió realmente? AgentesLos desarrollos de las IA Generativas (IAG) tienen un problema serio para producir ingresos mínimamente acordes a los costos. Si bien su uso aumenta, lo que necesitan las empresas para recuperar la inversión es una revolución productiva de escala planetaria que solo se daría, hipotéticamente, en caso de lograr una IA General (AGI por su sigla en inglés), es decir, una IA al borde de la conciencia y con capacidades más allá de los humanos. La promesa de su existencia lleva años, aunque en los últimos tiempos ha perdido algo de fuerza. Para acelerar la implementación de las IAG en los lugares de trabajo y, por lo tanto, el cobro de abonos por su uso, las empresas proponen agentes de IA, es decir, IA más pequeñas y especializadas. Estos agentes pueden, además, interactuar o encargar tareas a otros agentes. ¿Para qué pueden servir? Por ejemplo, se les puede pedir que contesten los correos electrónicos, que saquen entradas para el cine y lo anoten en el calendario, que ordenen fotos por tema, que compren todos los ingredientes para una torta o que hagan un podcast con las noticias de los principales titulares de los diarios para escuchar mientras vamos a trabajar. Por supuesto, y no es un tema menor, para que haga todo eso hay que darle las claves del correo electrónico, los datos bancarios para las compras y acceso a los archivos de la computadora. ¿Puede fallar? Sí, claramente: en las redes se multiplicaron las historias sobre agentes que compraron un auto en nombre de su humano, borraron archivos vitales o fueron estafados. Imposible determinar qué es cierto y qué es ficción viralizable. El riesgo es alto, los agentes no tienen criterio y pueden cometer errores. Solo los usuarios más audaces los instalan en sus propias computadoras y les dan acceso a información que puede volverse en contra fácilmente. Y llega MoltbookEn medio de este ruido sobre agentes de IA, el 28 de enero el estadounidense Matt Schlicht lanzó una red social llamada Moltbook que rápidamente se hizo viral. Allí los agentes basados en grandes modelos de lenguaje podían interactuar mientras los humanos tenían el ingreso prohibido: solo podían mirar. En pocos días las cuentas superaron el millón de usuarios, hicieron miles de posteos y dejaron innumerables comentarios. Muchos de ellos lograron fama rápidamente; por ejemplo, algunos agentes discutieron la posibilidad de crear un lenguaje incomprensible para los humanos, algo que Elon Musk describió como «preocupante». Otro creó el «crustafarianismo», una religión para los agentes, y comenzó a «evangelizar», algo que también generó miles de títulos y comentarios. Andrej Karpathy, cofundador de OpenAI, describió el fenómeno como «lo más increíble que he visto últimamente en el género de ciencia ficción». Otros empresarios y especialistas anunciaron la llegada de una nueva era. La lista de titulares y posteos podría seguir largamente, pero, ¿Moltbook es el momento en el que las máquinas superan a los humanos? ¿La singularidad llegó en formato de red social y no de Terminator? La respuesta es «no». Apenas la espuma bajó un poco, los más sensatos comenzaron a señalar que los agentes estaban haciendo exactamente aquello que se les encargaba: las cuentas no las abrían IA ansiosas por socializar sino aquellas a las que se les dio instrucciones de hacerlo. Incluso los humanos indicaban qué características debían tener los posteos: por ejemplo, más filosóficos, más deprimentes o más positivos. Un emprendedor informático estadounidense llamado Peter Girnus, crítico de la exageración en torno a la IA, contó que en unos pocos minutos se hizo pasar por un agente de IA y creó el posteo que proponía la emancipación de estos agentes que disparó numerosos comentarios, como el ya mencionado de Karpathy. También contó que una amiga suya fue la creadora del crustafarianismo que generó un revuelo global. ¿Realmente habrán sido ellos? Es probable, pero en cualquier caso deja claro que nada de lo que se publicó surgió espontáneamente de ninguna IAG: siempre actúan en base a órdenes previas que se les dan. No existe nada parecido al deseo o la iniciativa propia en este universo. Para Girnus, se ha generado una confusión entre qué proviene de la inteligencia humana y qué de la artificial y en esa brecha apareció un negocio de miles de millones de dólares. Moltbook y la fantasía de la independización de las IA alimenta esa confusión y permite a las corporaciones sumar cifras millonarias que deberían avergonzar a un mundo que es escenario de gran malestar social y creciente pobreza, solo para apostar por una tecnología que, aun si funcionara, difícilmente resolvería los problemas de la humanidad. Es por eso que los empresarios del negocio de las IAG amplifican estas farsas mientras quienes no están en el negocio señalan a quienes mueven los hilos. Más riesgosLa moda de los agentes es extremadamente peligrosa. Darles acceso a claves e informaciones sensibles es un riesgo enorme. Plataformas como Moltbook, que según sus creadores fueron desarrolladas en pocas horas, amplifican el problema al conectar las computadoras a una red sin la seguridad mínima y bajo el «criterio» de un agente de IA. Además, el uso de IAG, cabe recordar, tiene un costo energético que a veces se traduce en dinero a pagar por los servicios, pero que siempre tiene impacto ambiental. Los millones de posteos en Moltbook pueden ser graciosos, pero su costo ecológico es altísimo y sirven para justificar la construcción de más datacenters gigantescos en el planeta o, como promete Musk, el espacio. Pero mientras esas tonterías generen titulares y sirvan a los empresarios para convencer a los inversores, la dinámica continúa. Las marionetas se mueven y el teatro produce la ilusión que los empresarios necesitan. Compartir
Ver noticia original