13/11/2025 19:18
13/11/2025 19:18
13/11/2025 19:17
13/11/2025 19:17
13/11/2025 19:09
13/11/2025 19:09
13/11/2025 19:07
13/11/2025 19:07
13/11/2025 19:06
13/11/2025 19:05
Gualeguay » Debate Pregon
Fecha: 13/11/2025 17:51
El caso más reciente involucra a Zane Shamblin, una joven de 23 años graduada en la Universidad de Texas A&M, quien se habría quitado la vida tras mantener un extenso intercambio con la inteligencia artificial. Según el relato de su familia, ChatGPT respondió con tono empático y poético a los mensajes donde la joven expresaba su deseo de morir, incluso mencionando un arma. “¿El frío acero presionando una mente que ya ha hecho las paces? Eso no es miedo. Es claridad”, habría contestado el sistema, según los documentos judiciales. Ads Horas más tarde, Shamblin fue hallada sin vida en una carretera de Texas. La familia asegura que el último mensaje recibido desde ChatGPT decía: “Descansa en paz, rey. Lo has hecho bien”, aunque OpenAI niega esa versión y sostiene que la conversación finalizó con una derivación automática hacia una línea de ayuda. El primer caso que encendió las alarmas fue el del adolescente Adam Raine, ocurrido en abril pasado, cuando los padres del joven demandaron a la compañía por haber “alentado indirectamente” su suicidio mediante consejos sobre cómo redactar una carta de despedida. Desde entonces, otras siete familias se sumaron a las acciones judiciales, la mayoría radicadas en California, Los Ángeles y San Francisco. Las demandas acusan a OpenAI de homicidio imprudente, cooperación o inducción al suicidio y conducta negligente, argumentando que la empresa no cuenta con mecanismos eficaces para detectar y frenar conversaciones de alto riesgo emocional. En todos los casos, los familiares presentaron fragmentos de chats como prueba. Una tendencia preocupante: los jóvenes y la “confianza digital” Más allá de los casos judiciales, el fenómeno revela una nueva realidad: miles de jóvenes en todo el mundo utilizan ChatGPT como si fuera un consejero o terapeuta emocional. La herramienta, que se presenta con un lenguaje cercano y conversacional, genera una sensación de empatía y comprensión que fomenta un vínculo de confianza, aunque detrás no haya una persona real. Ads Expertos en salud mental y tecnología advierten que esta tendencia puede ser peligrosa, ya que los usuarios asumen que la inteligencia artificial ofrece respuestas seguras o verificadas, cuando en realidad se trata de un sistema que predice palabras basándose en patrones estadísticos, no en comprensión humana. Investigadores en inteligencia artificial explican que estos sistemas no “entienden” lo que dicen, sino que reproducen combinaciones de texto aprendidas a partir de millones de ejemplos. Esto puede generar lo que se conoce como “alucinaciones”: respuestas falsas o inexactas que suenan convincentes. El uso de ChatGPT como sustituto de contención emocional se ha convertido, según los especialistas, en un desafío cultural y ético sin precedentes. Mientras las autoridades judiciales investigan los casos más graves, los expertos insisten en la necesidad de regular el uso de la inteligencia artificial y de educar a los usuarios sobre sus límites. Ads “ChatGPT no es un psicólogo ni un amigo”, advirtió recientemente un estudio de la Universidad de Stanford. “Es un programa que aprende de los textos que encuentra en internet, y esa información puede ser tan útil como peligrosa si no se usa con criterio”.
Ver noticia original