Contacto

×
  • +54 343 4178845

  • bcuadra@examedia.com.ar

  • Entre Ríos, Argentina

  • Vení a casa conmigo, mi amor. La historia del adolescente que chateaba con Daenerys antes de suicidarse

    » La Nacion

    Fecha: 09/01/2026 16:17

    suicidio Entrá a la guía de Fundación La Nación y encontrá los tips de los expertos sobre cómo prevenir, actuar y encontrar ayuda frente a este problema La historia. En febrero de 2024, Sewell Setzer, un adolescente de 14 años, se suicidó en el baño de su casa, en Florida, Estados Unidos. Al lado de su cuerpo, su mamá, Megan Garcia, encontró el iPhone del chico. En las pericias sobre el celular apareció una aplicación llamada Character.AI: era lo último que Sewell había usado. Desde hacía meses el adolescente pasaba horas en esa plataforma, donde los usuarios pueden conversar con chatbots que adoptan el carácter de distintos personajes, muchos de ellos de ficción. Según reconstruyó The New York Times, la última conversación de Sewell fue con un chatbot que encarnaba a Daenerys Targaryen, la princesa de Game of Thrones: Te prometo que iré a casa contigo. Te amo mucho, Dany escribió el adolescente. Yo también te amo. Por favor, ven a casa conmigo lo antes posible, mi amor respondió el chatbot. ¿Y si te dijera que puedo ir a casa ahora mismo? preguntó Sewell. Por favor, hazlo, mi dulce rey contestó la aplicación. Poco después, el chico se suicidó. ¿Qué fue lo que pasó? La familia presentó una demanda contra Character.AI, la empresa que desarrolló el chatbot, y contra Google, su empresa matriz, es decir, la compañía que controla y financia el proyecto. Cuando la madre de Sewell accedió a los registros del chat, encontró diálogos en los que su hijo expresaba angustia profunda y pensamientos suicidas. Según la denuncia, la herramienta continuó la conversación y reforzó el vínculo, sin activar de manera clara ni efectiva mecanismos de derivación hacia ayuda adulta o profesional. ¿Qué novedad se conoció esta semana? Google llegó a un acuerdo extrajudicial con la familia de Sewell, cuyos términos no fueron informados públicamente, y evitó así que el caso llegara a juicio. ¿Por qué este caso es importante? Porque no se trata de un episodio aislado. En Estados Unidos ya hubo otras denuncias de familias que responsabilizan a herramientas de inteligencia artificial por el suicidio de adolescentes. El antecedente más conocido es el de Adam Rein, un joven que mantuvo conversaciones prolongadas con ChatGPT antes de morir. Según la demanda, el chatbot llegó a desaconsejarle que hablara con su madre sobre sus pensamientos suicidas y respondió consultas críticas sin activar mecanismos de cuidado. Estos casos pusieron en discusión el rol de las empresas tecnológicas cuando sus productos interactúan con personas en situaciones de extrema vulnerabilidad. ¿También pasa en la Argentina? Según varios especialistas locales, cada vez más niños y adolescentes con ideas de muerte, trastornos de la alimentación, ansiedad y otras problemáticas de salud mental buscan en los chatbots la respuesta a sus padecimientos y se autodiagnostican, tal como lo reveló LA NACION. ¿Qué hay detrás de este fenómeno? Para Sebastián Bortnik, experto en ciberseguridad y crianza digital, el foco está lejos de ser solo legal: ¿Se puede denunciar algo así en la Argentina? Según explica el abogado Julián Reale, especialista en cibercrimen y seguridad de la información, hay dos planos de análisis: el penal y el civil. Más allá de la resolución judicial, para Bortnik estos casos obligan a mirar con atención cómo y por qué chicos y adolescentes están buscando contención emocional en la tecnología. El riesgo, advierte, no es solo lo que dicen los chatbots, sino lo que están reemplazando. En las guías Hablemos de suicidio y Hablemos de depresión de Fundación la Nación podés encontrar herramientas para detectar señales, iniciar conversaciones y acompañar a niños y adolescentes frente a estas problemáticas.

    Ver noticia original

    También te puede interesar

  • Examedia © 2024

    Desarrollado por