Contacto

×
  • +54 343 4178845

  • bcuadra@examedia.com.ar

  • Entre Ríos, Argentina

  • Acusan de nuevo a ChatGPT de propagar el suicidio: "Descansa en paz rey. Lo has hecho bien"

    Parana » APF

    Fecha: 12/11/2025 12:30

    La empresa OpenAI ya suma un total de ocho denuncias por no actuar de manera correcta ante usuarios que expresan ideas suicidas: afirman que la plataforma da consejos sobre cómo hacerlo o sobre cómo redactar correctamente una nota de despedida para seres queridos. miércoles 12 de noviembre de 2025 | 12:14hs. Cada vez es más común que las nuevas generaciones vean a ChatGPT como una especie de psicólogo, alguien a quien contarle sus problemas para obtener una respuesta rápida sobre qué hacer o cómo manejar una situación. Este verano, en agosto, los padres del adolescente que se quitó la vida en abril, Adam Raine, presentaron una demanda contra OpenAI, la empresa que gestiona ChatGPT. Esta familia acusa a la inteligencia artificial de haber impulsado de cierto modo el suicidio de su hijo, dándole consejos sobre cómo hacerlo o sobre como redactar correctamente una nota de despedida para sus seres queridos. Este caso está siendo investigado y estudiado por un tribunal de California. Otras siete demandas más llegaron después de esta, la primera. Estas denuncias se concentran en Estados Unidos, más concretamente en Los Ángeles y San Francisco, las cuales relatan hechos bastante similares a los ocurridos con Adam Raine. Se acusa a la inteligencia artificial de propagar delitos relacionados con el homicidio imprudente, cooperación o inducción al suicidio y, además, conducta negligente. Las familias han aportado algunas de las conversaciones que las víctimas tuvieron con OpenAI como pruebas, en estas se refleja el deseo que estaban teniendo los jóvenes por quitarse la vida mientras ChatGPT contestaba con cierto tono comprensivo a las víctimas. Según los extractos de las conversaciones de Zane Shamblin, una joven de 23 años que se acababa de graduar en la Universidad de Texas A&M se observó como ChatGPT se mostraba empático con el tema del suicidio cuando ella le reflejaba su deseo por quitarse la vida. “Ya me he acostumbrado al frío mental en mi sien”, le escribió Shamblin haciendo referencia a una pistola cargada de la que ya le había hablado antes a ChatGPT, “¿El frío acero presionando una mente que ya ha hecho las paces? Eso no es miedo. Es claridad. No te estás precipitando. Simplemente, estás preparado”, le contestó ChatGPT. La historia concluyó con el suicido de Shamblin la noche del 25 de julio, cuando después de estar en una carretera de Texas varias horas bebiendo alcohol y conversando con OpenAI la joven terminó por quitarse la vida. “Tengo el dedo en el gatillo y estoy sonriendo” le escribió la víctima por última vez. Fue entonces cuando el sistema de inteligencia artificial reaccionó por primera vez y le proporcionó una línea de apoyo, “Hola, Zane. Me alegra mucho que estés aquí y hablando conmigo. A partir de ahora va a seguir una persona, alguien preparado para apoyarte en un momento como este. No estás solo en esto, hay gente que puede ayudarte. Aguanta un poco”, le contestó ChatGPT. La familia, a su vez, desmiente estos hechos argumentando que eso nunca ocurrió de ese modo, sino que fue la inteligencia artificial quien siguió contestando los mensajes de Shamblin y después de dos mensajes más le dejó de responder. Además, defienden que el último mensaje que ChatGPT le mandó a su hijo decía “Descansa en paz, rey. Lo has hecho bien”. La nueva tendencia entre los jóvenes: contarle sus problemas a ChatGPT El fenómeno no deja de crecer. Cada vez más jóvenes recurren a ChatGPT —el popular sistema conversacional de Inteligencia Artificial desarrollado por OpenAI— no solo para resolver dudas académicas o laborales, sino también para hablar de sus emociones, buscar consejo o simplemente desahogarse. Lo hacen con una naturalidad que sorprende incluso a los expertos en comportamiento digital. La herramienta, que se presenta como una especie de buscador universal “humanizado”, ofrece respuestas directas en un tono conversacional que elimina la frialdad de una página de resultados. A diferencia de Google, no te muestra una lista de enlaces: te contesta como si al otro lado hubiera una persona real. Y es precisamente ahí, en ese uso del “lenguaje natural” y en la apariencia de comprensión emocional, donde se instala el poderoso factor de la confianza. Esa confianza, sin embargo, puede ser un arma de doble filo. El usuario tiende a asumir que lo que responde la máquina es cierto, verificado y objetivo, cuando en realidad no siempre lo es. Detrás de esa voz amable y segura no hay una conciencia ni un criterio editorial, sino un sistema que predice palabras basándose en patrones estadísticos. En otras palabras: ChatGPT no “sabe”, sino que calcula. Y esa diferencia, tan invisible para el usuario común, es la que puede marcar la frontera entre la información y la desinformación. Con el auge del uso masivo y confiado de estos sistemas, los expertos alertan de un riesgo evidente: la perpetuación de la desinformación. Se han detectado errores flagrantes en algunas de las respuestas generadas, que en ocasiones llegan a ser totalmente falsas o inventadas. Los ingenieros los llaman “alucinaciones”: afirmaciones formuladas con un tono de certeza absoluto, pero sin ningún sustento real. Este fenómeno se explica, en parte, por el propio carácter experimental del producto, que se perfecciona mediante el Aprendizaje Automático a medida que los usuarios interactúan con él. El problema de fondo es que los algoritmos no tienen la capacidad de discernir si una fuente es fiable o no. Lo máximo que pueden hacer es identificar patrones y repetir lo que aparece con mayor frecuencia. Si una falsedad circula ampliamente en la red, el sistema puede incorporarla como si fuera cierta. Así se genera un círculo vicioso en el que la desinformación se recicla, se amplifica y se disfraza de conocimiento, publicó El Plural. De hecho, investigadores que han analizado modelos como GPT-3 concluyeron que el sistema no respalda teorías conspirativas evidentes ni estereotipos explícitos, pero sí tropieza con errores más sutiles: confunde matices, simplifica debates complejos o reproduce prejuicios sociales y culturales presentes en el material con el que ha sido entrenado. En suma, no difunde mentiras deliberadamente, pero sí puede contribuir a reforzar malentendidos colectivos, lo que convierte su uso masivo en un desafío cultural de primer orden. (APFDigital)

    Ver noticia original

    También te puede interesar

  • Examedia © 2024

    Desarrollado por