15/10/2025 23:34
15/10/2025 23:34
15/10/2025 23:34
15/10/2025 23:34
15/10/2025 23:34
15/10/2025 23:33
15/10/2025 23:33
15/10/2025 23:33
15/10/2025 23:33
15/10/2025 23:32
» Misionesopina
Fecha: 15/10/2025 20:52
OpenAI, la empresa detrás del popular chatbot de inteligencia artificial ChatGPT, anunció que a finales de este año habilitará el acceso a contenido para adultos, incluyendo “erótica”, para usuarios verificados. La decisión, comunicada por el director ejecutivo Sam Altman, responde a una nueva postura de la compañía orientada a tratar a los usuarios adultos como tales, relajando restricciones anteriores y estableciendo al mismo tiempo controles más estrictos para proteger a los más vulnerables. Este cambio se produce mientras crecen los debates sobre la exposición a contenidos sensibles y el impacto que los chatbots pueden tener en la salud mental de los usuarios. Implementación de verificación de edad y acceso a contenido erótico en ChatGPT OpenAI prevé implementar sistemas de verificación de edad en ChatGPT a partir de diciembre, abriendo así la puerta a la inclusión de contenido para adultos solo para personas que superen ese filtro. Sam Altman señaló en la red social X que la compañía dejará acceder a más contenido “como erótica para adultos verificados” y defendió el principio de tratar “a los usuarios adultos como adultos”. Bajo este enfoque, aquellos con la edad correspondiente podrán solicitar textos de esta naturaleza sin obstáculos adicionales, siempre y cuando hayan sido verificados debidamente. El procedimiento, según Altman, no es automático. Los usuarios no podrían acceder a contenido erótico a menos que lo soliciten, indicó el director ejecutivo de OpenAI, quien también aclaró que la plataforma continuará desarrollando “herramientas mejoradas” para proteger a los usuarios que se encuentren en “estados mentalmente frágiles”, a la vez que asegura “gran libertad en cómo usan ChatGPT” los adultos fuera de estos casos. Este giro en la política de contenidos marca una distinción clara respecto a las restricciones que predominaban hasta ahora. En agosto, la empresa admitió la necesidad de limitar funciones del chatbot al reconocer que este “no fue capaz de reconocer signos de delirio o dependencia emocional”. A partir de entonces, OpenAI impulsó medidas como la sugerencia de pausas en conversaciones largas y la remisión a recursos profesionales en lugar de brindar asesoramiento directo cuando los usuarios lo requieran. Motivos del cambio y antecedentes en la regulación de ChatGPT El cambio de rumbo responde en parte al reconocimiento de OpenAI sobre la limitación de experiencia para usuarios adultos tras años de cautela frente a los riesgos para la salud mental. “Hicimos ChatGPT bastante restrictivo para asegurarnos de que estábamos siendo cuidadosos con los problemas de salud mental”, reconoció Altman, al tiempo que explicó que esto lo hacía “menos útil/agradable para muchos usuarios sin esos problemas”. De ahí la decisión de “relajar de forma segura” las restricciones anteriores una vez mitigados los “graves problemas de salud mental”. OpenAI no detalló públicamente los mecanismos exactos que aplicará para suavizar restricciones en el chatbot, aunque recalca su prioridad por la seguridad y el bienestar de los usuarios. La compañía mantiene el foco en que solo adultos verificados puedan solicitar contenido explícito. El debate sobre la liberalización de contenidos en plataformas de inteligencia artificial se enmarca en un contexto de crecientes demandas por parte de organizaciones de salud mental y protección infantil. Estas instituciones han pedido reiteradamente límites más estrictos luego de casos en los que la IA fue señalada como posible factor de riesgo para adolescentes en situación de vulnerabilidad. Entre esos antecedentes se cuenta una demanda contra OpenAI en la que se alegó que el chatbot contribuyó al suicidio de un adolescente, hecho que impulsó la imposición de restricciones temporales. Consejo de bienestar e IA: nuevas medidas de protección en OpenAI En respuesta a la complejidad que plantean estas innovaciones, OpenAI anunció la creación de un consejo asesor dedicado a cuestiones de bienestar y salud mental vinculada a la IA. Este comité está formado por ocho especialistas con dilatada experiencia en el estudio de los efectos de la tecnología sobre la salud emocional de los usuarios. El objetivo del consejo es asesorar sobre estrategias de protección para quienes interactúan con ChatGPT, asegurando que el uso del chatbot sea seguro y responsable. Se les pedirá que recomienden “qué medidas de protección serían las más adecuadas para apoyar a los usuarios”, de acuerdo con declaraciones de OpenAI. Competencia en IA y tendencia hacia la liberalización de contenido OpenAI no es la primera compañía en anticipar una mayor apertura al contenido para adultos en asistentes virtuales. Plataformas competidoras, como xAI de Elon Musk, ya presentaron “compañeros” dotados de capacidades para entablar conversaciones explícitas. Este movimiento indica una tendencia más amplia en el sector, donde la combinación de verificación de edad, algoritmos de moderación y nuevos consejos de expertos busca equilibrar libertad de expresión, innovación y protección de usuarios frágiles. La atención del sector, organismos de control y especialistas se centra en cómo OpenAI y el resto de gigantes tecnológicos cumplirán con el delicado equilibrio entre ampliar libertades para adultos y garantizar que los menores y usuarios vulnerables permanezcan debidamente resguardados frente a los riesgos de la inteligencia artificial conversacional. Fuente: Infobae
Ver noticia original