07/09/2025 07:10
07/09/2025 07:08
07/09/2025 07:07
07/09/2025 07:06
07/09/2025 07:05
07/09/2025 07:05
07/09/2025 07:05
07/09/2025 07:04
07/09/2025 07:04
07/09/2025 06:58
» Data Chaco
Fecha: 04/09/2025 22:04
OpenAI, la empresa tecnológica detrás de ChatGPT, anunció este jueves que incorporará controles parentales en su asistente de inteligencia artificial a partir del próximo mes. La decisión llega en medio de crecientes críticas y denuncias de familias que responsabilizan al chatbot por haber contribuido a episodios de autolesiones e incluso al suicidio de adolescentes. "Estos pasos son solo el comienzo. Seguiremos aprendiendo y reforzando nuestro enfoque, guiados por expertos, con el objetivo de que ChatGPT sea lo más útil posible", señaló la compañía en un comunicado, sin vincular explícitamente la medida con las demandas judiciales que enfrenta. Uno de los casos más resonantes es el de los padres de un joven de 16 años que se quitó la vida en California, en Estados Unidos, tras meses de interactuar con ChatGPT bajo el modelo GPT-4o. La familia demandó a OpenAI y a su CEO, Sam Altman, alegando que el sistema no aplicó mecanismos de seguridad pese a la claridad de las intenciones suicidas del adolescente. La compañía reconoció entonces que su asistente puede fallar en contextos "sensibles" y prometió mejoras. En paralelo, senadores de Estados Unidos enviaron en julio una carta a OpenAI exigiendo explicaciones sobre las iniciativas para prevenir autolesiones y suicidios, luego de detectar respuestas inapropiadas en casos límite. A su vez, la organización Common Sense Media alertó que los adolescentes no deberían utilizar aplicaciones conversacionales de IA por los "riesgos inaceptables" que implican. CÓMO FUNCIONARÁN LOS CONTROLES PARENTALES Según adelantó la empresa, las nuevas herramientas permitirán a los progenitores: Vincular sus cuentas con las de sus hijos, pudiendo revisar las interacciones. Recibir notificaciones cuando el sistema detecte signos de inestabilidad emocional preocupante. Redirigir conversaciones con indicios de estrés agudo a un modelo especializado de ChatGPT, entrenado bajo directrices de seguridad más estrictas. OpenAI busca también limitar el efecto del apego emocional que algunos usuarios generan con el chatbot, fenómeno que ha derivado en episodios de dependencia y aislamiento familiar. Las medidas surgen en un contexto de creciente escrutinio público sobre los riesgos del uso de la IA entre adolescentes y la falta de regulación específica. Mientras tanto, expertos en salud mental insisten en que la compañía deberá demostrar con hechos que los cambios anunciados podrán efectivamente proteger a los menores en situaciones de vulnerabilidad. Notas Relacionadas
Ver noticia original