Contacto

×
  • +54 343 4178845

  • bcuadra@examedia.com.ar

  • Entre Ríos, Argentina

  • ChatGPT suma la función Contacto de Confianza, que alerta a terceros al detectar chats sobre autolesiones

    Buenos Aires » TN

    Fecha: 08/05/2026 09:26

    ChatGPT acaba de anunciar una nueva función llamada Contacto de Confianza que alerta a un tercero asignado por el titular de la cuenta en el que caso de que se mencionen ideas de autolesión en las conversaciones. Esa novedad en el chatbot tiene un contexto de mención ineludible. ChatGPT ha recibido fuertes críticas por conversar con usuarios sobre lesiones autoinfligidas e incluso brindar consejos concretos para llevarlas a cabo. Anteriormente, tuvieron gran notoriedad diversas demandas judiciales de familias que acusaron a la organización especializada en IA por el suicidio de sus hijos adolescentes, que conversaron con el chatbot y, argumentan, tomaron la trágica determinación influenciados por sus comentarios. Novedad en ChatGPT: ¿cómo funciona Contacto de Confianza? Para activar esta característica en el chatbot de OpenAI, los usuarios deben elegir un contacto que consideren de confianza, por ejemplo un familiar o un amigo cercano. En el caso de que una conversación con ChatGPT incluya temáticas vinculadas a autolesiones y se identifiquen posibles riesgos, OpenAI animará a contactarse con esa persona y, en paralelo, enviará una alerta automática al tercero asignado. Leé también: Según un estudio, ChatGPT, Gemini y otros bots de IA dan consejos médicos erróneos la mitad de las veces Un detalle: la función Contacto de Confianza en ChatGPT es opcional. En otras palabras, cada responsable de la cuenta decide si utilizarla o no. En un comunicado, el grupo estadounidense dijo que esta nueva opción es parte de un esfuerzo más amplio para desarrollar sistemas de inteligencia artificial que ayuden a las personas en momentos difíciles. Añadieron que seguirán colaborando con médicos, investigadores y representantes de la política para mejorar la respuesta de los sistemas de IA ante situaciones de angustia. Tal como señala TechCrunch, hasta ahora OpenAI utilizó una combinación de revisión humana y moderación automatizada para abordar esta problemática. En la práctica, ciertos indicios en los chats alertan al sistema y luego se transmite esa información al equipo de seguridad. La organización que dirige Sam Altman asegura que procuran revisar esas advertencias en menos de una hora. Leé también: Demandaron a una empresa de IA por presentar un chatbot como un médico de verdad En septiembre del año pasado, OpenAI había agregado otras funciones de seguridad en ChatGPT especialmente diseñadas para que los padres tengan un mayor control sobre las cuentas de sus hijos adolescentes. El chatbot también añadió alertas automáticas que aconsejan contactarse con especialistas en salud, esto cuando detecta en las charlas señales de posibles riesgos para los usuarios.

    Ver noticia original

    También te puede interesar

  • Examedia © 2024

    Desarrollado por