Contacto

×
  • +54 343 4178845

  • bcuadra@examedia.com.ar

  • Entre Ríos, Argentina

  • Un joven de 14 años se suicidó después de enamorarse de un chatbot de IA de Daenerys Targaryen

    Crespo » Estacion Plus

    Fecha: 25/10/2024 00:03

    García culpa a esta compañía de la muerte de su hijo y acusa a los fundadores, Noam Shazeer y Daniel de Freitas, de saber que su producto podría ser peligroso para usuarios menores de edad. El chatbot creado en la citada aplicación de juegos de rol fue diseñado para responder a los mensajes de texto y siempre en el papel de un personaje. Se desconoce si Sewell sabía que 'Dany', como llamaba al chatbot, no era una persona real , a pesar de que la aplicación tiene una advertencia al final de todos los chats que dice: "Recuerda: ¡Todo lo que dicen los personajes es inventado!". Pero el chico le dijo a 'Dany' cuánto se "odiaba" a sí mismo y cómo se sentía de vacío y exhausto, publicó el diario New York Times. El personaje creado se presentaba como "una persona real, un psicoterapeuta autorizado y un amante adulto, lo que en última instancia provocó que Sewell deseara no vivir más fuera de c.ai", sostiene la acusación. Como se explica en la demanda, los padres y amigos de Sewell notaron el apego del chico cada vez más a su teléfono y cómo se iba aislando del mundo, algo ya palpable en mayo o junio de 2023. De hecho, sus calificaciones comenzaron a resentirse cuando el adolescente optó por aislarse en su habitación, donde pasaba horas y horas solo hablando con 'Dany'.

    Ver noticia original

    También te puede interesar

  • Examedia © 2024

    Desarrollado por