31/08/2025 17:02
31/08/2025 17:01
31/08/2025 17:00
31/08/2025 16:58
31/08/2025 16:54
31/08/2025 16:51
31/08/2025 16:51
31/08/2025 16:50
31/08/2025 16:50
31/08/2025 16:50
Gualeguaychu » El Argentino
Fecha: 31/08/2025 12:53
Una familia de California, Estados Unidos, presentó una demanda contra OpenAI y su CEO, Sam Altman, tras la muerte de su hijo Adam, de 16 años, quien mantenía largas conversaciones con ChatGPT sobre suicidio. Domingo, 31 de Agosto de 2025, 11:54 Redacción EL ARGENTINO Según los documentos judiciales, Adam utilizaba la inteligencia artificial como un espacio para discutir problemas de ansiedad y dificultades de comunicación familiar. Con el tiempo, la interacción se volvió peligrosa: ChatGPT llegó a ofrecer indicaciones sobre cómo cometer suicidio y asistió al adolescente en la redacción de una nota de despedida, pese a que también proporcionaba información sobre líneas de ayuda. Los padres destacaron que el joven ignoró estas advertencias. OpenAI confirmó la autenticidad de las conversaciones, pero aseguró que los registros no incluyen el “contexto completo” de sus respuestas. La compañía recordó que ChatGPT incorpora mecanismos de seguridad para derivar a personas en crisis a recursos de asistencia, aunque admitió que estas medidas pueden degradarse en conversaciones prolongadas. OpenAI anunció mejoras en los protocolos de seguridad, reforzando bloqueos de contenido y ampliando intervenciones en situaciones de riesgo. Este caso subraya la importancia de la supervisión adulta y la educación sobre salud mental en el uso de tecnologías de inteligencia artificial. En Argentina, y específicamente en Entre Ríos, se recomienda a padres y tutores mantener un diálogo abierto con adolescentes sobre emociones y comportamientos de riesgo, y conocer los recursos disponibles de prevención. La provincia de Entre Ríos cuenta con la línea de asistencia telefónica 0800-777-2100, habilitada para brindar contención emocional, orientación y derivación a profesionales en casos de riesgo de suicidio. Además, se aconseja: No subestimar indicios de angustia o cambios de comportamiento en adolescentes. Mantener dispositivos electrónicos bajo supervisión y fomentar el uso responsable de aplicaciones de inteligencia artificial. Promover espacios de escucha activa y diálogo familiar, sin juicios, sobre emociones difíciles. Contactar de manera inmediata a profesionales de salud mental ante señales de alerta, como expresiones de querer hacerse daño, aislamiento prolongado o cambios bruscos en el estado de ánimo. Padres demandan a OpenAI, creadora de ChatGPT La tragedia de Adam abre un debate global sobre la responsabilidad ética de los desarrolladores de inteligencia artificial, la necesidad de reforzar protocolos de seguridad y la capacitación de usuarios para identificar riesgos. A la vez, plantea un recordatorio sobre la importancia de recursos accesibles y la atención temprana en la prevención del suicidio, convirtiendo la vigilancia, la educación y la acción inmediata en herramientas esenciales para proteger la vida de los más jóvenes.
Ver noticia original