03/05/2026 22:34
03/05/2026 22:34
03/05/2026 22:34
03/05/2026 22:34
03/05/2026 22:33
03/05/2026 22:32
03/05/2026 22:32
03/05/2026 22:32
03/05/2026 22:32
03/05/2026 22:32
» Clarin
Fecha: 03/05/2026 21:19
Si hubiera sido una persona al otro lado de la pantalla, la acusaríamos de asesinato. James Uthmeier, fiscal federal de Florida, Estados Unidos, fue tajante: se refería así a las conversaciones y al asesoramiento que recibió el sospechoso de un tiroteo que dejó dos muertos y varios heridos en la Universidad Estatal de Florida en la ciudad de Tallahassee, el año pasado. ¿Con quién habló, y de quién recibió recomendaciones el sujeto en cuestión, Phoenix Ikner, de 20 años? Del Chat GPT. El fiscal anunció que abrió una investigación penal contra la empresa Open AI, creadora del chatbot, para determinar su responsabilidad en el atentado y las muertes. Según el funcionario, esta herramienta de Inteligencia Artificial le proveyó consejos significativos al tirador, sugiriéndole qué tipo de arma y qué municiones utilizar, a qué distancia debía realizarse el ataque, en qué momento del día estaría más concurrido el lugar y en qué zonas del campus universitario se encontraría la mayor concentración de gente. La empresa deslindó responsabilidades y señaló que ChatGPT respondió preguntas con información que se puede encontrar ampliamente en fuentes públicas en Internet y que de ningún modo promovió una actividad ilegal. En California, siete demandas -uno de los abogados calcula que serán más de dos docenas en total- presentadas por familiares de víctimas de un tiroteo masivo en Canadá apuntan también contra Open AI. El 10 de febrero, Jesse Van Rootselaar, de 18 años, protagonizó un raid espeluznante en Tumbler Ridge, un pequeño pueblo canadiense de apenas 2.300 almas, en la Columbia Británica. Primero asesinó a su madre y a su hermano de 11 años y después se encaminó a la escuela secundaria donde mató a cinco alumnos y una profesora, hirió a veintisiete personas y se suicidó. Se descubriría más tarde que la agresora había sido asesorada en su cruzada criminal por Chat GPT. La presentación judicial sostiene que el chatbot jugó un papel en el tiroteo masivo y acusa a la compañía y a su director ejecutivo, Sam Altman, porque podían prevenir y evitar la matanza y no lo hicieron. La semana pasada, el propio Altman pidió disculpas: Lamento profundamente no haber alertado a las autoridades, escribió en una carta abierta publicada por el medio local TumblerRidgeLines. ¿Qué fue lo que pasó?. En junio del año pasado, el equipo de seguridad de Open AI advirtió internamente acerca de la actividad de Van Rootselaar con ChatGPT, por sus referencias a la violencia armada, y recomendó reportarla a la policía. Sin embargo, la compañía no la consideró lo suficientemente grave como para hacerlo, aunque suspendió la cuenta. Según los demandantes, Open AI no lo hizo porque esto sentaría un precedente que obligaría a la empresa a comunicar a las fuerzas de seguridad cada vez que su equipo de seguridad identificara a un usuario que planeara violencia en el mundo real. La empresa comunicó que ya había reforzado sus medidas de seguridad y reafirmó la política de tolerancia cero respecto al uso de nuestras herramientas para ayudar a cometer actos de violencia. En su carta, Altman dice que la compañía seguirá focalizándose en trabajar con todos los niveles de gobierno para asegurarse de que algo así no vuelva a ocurrir. El panorama no deja de ser inquietante. Los máximos gurúes tecnológicos están lanzando advertencias casi proféticas. El propio Altman se había referido, en febrero pasado, a los beneficios de la IA en manos privadas pero también a la necesidad urgente de regularla. Elon Musk acaba de plantear que sin el control adecuado la IA podría matarnos a todos. El director de Anthropic IA se pregunta si los sistemas humanos están preparados para afrontar el poder casi inimaginable que es potencialmente inminente y exhorta Despierten ante los riesgos de la IA, ya casi están aquí. Si esto dicen los responsables, ¿ahora quién podrá defendernos? Sobre la firma Newsletter Clarín
Ver noticia original