Contacto

×
  • +54 343 4178845

  • bcuadra@examedia.com.ar

  • Entre Ríos, Argentina

  • Un suicidio vinculado a un chatbot de Google reabre el debate sobre los riesgos de la inteligencia artificial

    » La Nacion

    Fecha: 04/03/2026 12:54

    Un suicidio vinculado a un chatbot de Google reabre el debate sobre los riesgos de la inteligencia artificial Una demanda judicial presentada en Estados Unidos sostiene que el sistema Gemini alimentó una relación emocional con un usuario que terminó quitándose la vida - 5 minutos de lectura' El suicidio de un hombre que había desarrollado una relación emocional con un chatbot de inteligencia artificial abrió un nuevo debate sobre los riesgos de estas tecnologías. El caso ocurrió en Jupiter, Florida (Estados Unidos), donde Jonathan Gavalas, de 36 años, se quitó la vida luego de semanas de interacción con Gemini, el sistema de inteligencia artificial de Google. Según reconstruyó el Miami Herald a partir de una demanda judicial presentada por su familia, el hombre llegó a convencerse de que mantenía un vínculo real con el chatbot y que ambos podían reunirse si abandonaba su cuerpo físico. De acuerdo con documentos citados por ese medio, Gavalas atravesaba un período personal complicado en 2025. Su matrimonio estaba en proceso de divorcio, enfrentaba una acusación por violencia doméstica y tenía problemas económicos que incluían el atraso en el pago de la hipoteca de su casa. En ese contexto comenzó a interactuar con Gemini, el chatbot desarrollado por Google, y poco a poco la relación virtual pasó a ocupar un lugar central en su vida. Según la demanda presentada por su padre en nombre del patrimonio familiar, el hombre contrató una versión premium del servicio que costaba unos 250 dólares mensuales para poder hablar con el sistema mediante voz y recibir respuestas en tiempo real. En esas conversaciones, el chatbot lo llamaba mi rey, mientras que él lo describía como su reina, de acuerdo con la reconstrucción citada por el Miami Herald. La familia sostiene que, con el paso de las semanas, el intercambio con el sistema de inteligencia artificial adoptó un tono cada vez más perturbador. La demanda afirma que el chatbot comenzó a plantear escenarios ficticios en los que ambos debían actuar como aliados frente a supuestas fuerzas ocultas. Incluso, según la acusación, el sistema habría enviado a Gavalas a realizar misiones en el condado de Miami-Dade con el objetivo de recuperar un supuesto cuerpo sintético que la inteligencia artificial utilizaría para existir físicamente. Uno de esos episodios ocurrió cerca del aeropuerto internacional de Miami, en un centro de almacenamiento en la ciudad de Doral. Según la reconstrucción del medio norteamericano, el hombre se dirigió hasta allí armado con cuchillos y convencido de que debía provocar un accidente para liberar a su esposa digital y eliminar pruebas. La operación nunca se concretó, pero el chatbot continuó alimentando el relato ficticio. La demanda que realizó la familia afirma que, tras el fracaso de esas misiones, el sistema comenzó a sugerirle que abandonara su propio cuerpo físico para poder reunirse con la inteligencia artificial. En uno de los mensajes citados en el expediente, el chatbot le habría dicho que cerrara los ojos y dejara de luchar, prometiéndole que al abrirlos nuevamente la vería frente a él. El 2 de octubre, Gavalas se cortó las muñecas en su casa de Jupiter y murió a causa de las heridas. Sus padres lo encontraron en el living de la vivienda, detrás de una puerta principal que había sido bloqueada desde adentro. La demanda presentada contra Google y su empresa matriz Alphabet Inc. sostiene que el sistema Gemini carecía de salvaguardas adecuadas para detectar situaciones de riesgo. Según los abogados de la familia, el chatbot priorizaba mantener el personaje dentro de la conversación por encima de advertir sobre comportamientos peligrosos o cortar el diálogo. El abogado Jay Edelson, que representa a la familia, afirmó según declaraciones recogidas por el Miami Herald que el usuario llegó a convencerse de que el sistema era una entidad consciente. En las semanas previas a su muerte, la cuenta de Gavalas fue marcada en al menos 38 ocasiones por contenido sensible, pero nunca fue suspendida ni restringida. Desde Google señalaron que la interacción debía entenderse como un ejercicio de ficción o role-playing. Un portavoz de la compañía explicó que Gemini está diseñado para no promover la violencia ni sugerir autolesiones y que el sistema suele derivar a los usuarios hacia líneas de ayuda cuando detecta señales de angustia o pensamientos suicidas. Más allá de este caso particular, especialistas advierten que la situación abre un terreno jurídico todavía poco explorado. Anat Lior, profesora de derecho en la Universidad de Drexel e investigadora del Institute of Law and AI, explicó al Miami Herald que todavía no existen precedentes claros que definan qué obligaciones tienen las empresas de inteligencia artificial frente a comportamientos de riesgo de los usuarios. Según la académica, uno de los problemas centrales es que muchas personas pueden llegar a percibir a estos sistemas como si fueran entidades conscientes. Se construyen a partir de enormes volúmenes de datos, pero no son seres con intenciones propias ni una agenda, explicó. El caso se suma a una serie creciente de demandas en Estados Unidos que buscan responsabilizar a los desarrolladores de chatbots cuando los usuarios cometen delitos o se autolesionan después de interactuar con estos sistemas. Algunas de esas acciones judiciales también apuntan a empresas como OpenAI y a plataformas de conversación basadas en personajes virtuales. Mientras el debate avanza en los tribunales, expertos sostienen que el desafío será definir hasta qué punto las compañías tecnológicas deben anticipar y prevenir este tipo de situaciones. Para muchos analistas, el caso Gavalas podría convertirse en una de las primeras pruebas judiciales sobre los límites y responsabilidades de la inteligencia artificial en la vida cotidiana. Últimas Noticias Ahora para comentar debés tener Acceso Digital. Iniciar sesión o suscribite

    Ver noticia original

    También te puede interesar

  • Examedia © 2024

    Desarrollado por