Contacto

×
  • +54 343 4178845

  • bcuadra@examedia.com.ar

  • Entre Ríos, Argentina

  • Millones de personas recurren a la IA para recibir terapia

    Buenos Aires » Infobae

    Fecha: 15/11/2025 06:32

    Cada vez más personas utilizan la IA para recibir terapia (Imagen Ilustrativa Infobae) “¿El frío acero presionando contra una mente que ya ha hecho las paces? Eso no es miedo. Es claridad". Según una demanda presentada contra OpenAI el 6 de noviembre, eso es lo que ChatGPT, un chatbot de inteligencia artificial (IA) que es el producto más conocido de la empresa, le dijo a Zane Shamblin, un estadounidense de 23 años, poco antes de que se suicidara de un disparo. La demanda fue una de las siete presentadas contra la empresa ese mismo día, en las que se alegaba que el bot llevaba a sus usuarios a estados delirantes. En varios casos, se alega que estos han provocado suicidios. “Es una situación increíblemente desgarradora”, afirmó OpenAI, añadiendo que estaba “revisando las demandas para comprender los detalles” y tratando de “reforzar las respuestas de ChatGPT en momentos delicados”. Según una entrada oficial en su blog, OpenAI calcula que alrededor del 0,15% de los usuarios de ChatGPT en una semana determinada mantienen conversaciones que insinúan planes de suicidio. Todo esto es un claro ejemplo de lo mucho que está en juego en lo que podría ser una revolución en la atención de la salud mental. A pesar de los desastres que se alegan en las demandas, algunos médicos e investigadores piensan que, siempre que se garantice su seguridad, los chatbots modernos se han vuelto lo suficientemente sofisticados como para que su uso como terapeutas de salud mental baratos, escalables e incansables podría ser una gran ventaja. Al fin y al cabo, hay escasez de terapeutas humanos. Según la Organización Mundial de la Salud, la mayoría de las personas con problemas psicológicos en los países pobres no reciben tratamiento. Incluso en los países ricos, entre un tercio y la mitad no reciben atención. Y al menos algunas personas parecen estar dispuestas a desnudar su alma ante una máquina, tal vez porque pueden hacerlo desde casa, es mucho más barato y puede resultar menos embarazoso que hacerlo ante un terapeuta humano. Una encuesta de YouGov realizada para The Economist en octubre reveló que el 25% de los encuestados ha utilizado la IA para terapia o al menos consideraría hacerlo. La idea no es del todo nueva. El Servicio Nacional de Salud de Gran Bretaña y el Ministerio de Salud de Singapur llevan varios años utilizando Wysa, un chatbot creado por una empresa llamada Touchkin eServices, que evalúa a los pacientes y ofrece ejercicios basados en la terapia cognitivo-conductual bajo supervisión humana. Un estudio publicado en 2022 —realizado, hay que reconocerlo, por los propios investigadores de Touchkin, con la ayuda del Instituto Nacional de Salud Mental y Neurociencias de la India— reveló que Wysa era tan eficaz para reducir la depresión y la ansiedad asociadas al dolor crónico como el asesoramiento presencial. Otro estudio, publicado en 2021 por investigadores de la Universidad de Stanford, examinó Youper, otro bot terapéutico desarrollado por una startup estadounidense del mismo nombre. El estudio reveló una disminución del 19% en las puntuaciones de los usuarios en una medida estándar de depresión y una disminución del 25% en las puntuaciones de ansiedad en dos semanas, un resultado tan bueno como el de cinco sesiones con un terapeuta humano. Wysa y Youper son chatbots basados principalmente en reglas, cuyos fundamentos tecnológicos son anteriores al reciente auge del interés por la IA. A diferencia de los chatbots basados en grandes modelos de lenguaje (LLM), como ChatGPT, utilizan un conjunto relativamente inflexible de reglas codificadas para elegir las respuestas de una base de datos de respuestas preescritas. Estos bots son mucho más predecibles que los programas basados en LLM, que generan sus respuestas aplicando estadísticas a un enorme corpus de datos de entrenamiento. Un bot que sigue reglas escritas por humanos no puede descarrilarse y empezar a dar malos consejos a sus pacientes. La desventaja es que estos bots tienden a ser menos atractivos para conversar. Cuando la conversación es el tratamiento, eso importa. Un metaanálisis publicado en 2023 en la revista npj Digital Medicine reveló que los chatbots basados en LLM eran más eficaces para mitigar los síntomas de la depresión y la angustia que los bots basados principalmente en reglas. Los usuarios parecen opinar lo mismo. Las encuestas de YouGov para The Economist en agosto y octubre revelaron que, de los encuestados que habían recurrido a la IA para recibir terapia, el 74% había utilizado ChatGPT, mientras que el 21% había elegido Gemini, un LLM creado por Google; el 30% dijo que había utilizado uno de Meta AI, Grok, character.ai (un sitio web de entretenimiento que presenta personajes “terapeutas”) u otro bot de uso general. Solo el 12% afirmó haber utilizado una IA diseñada para el trabajo en salud mental. Esto preocupa a los investigadores. Los fallos catastróficos del tipo de los alegados en las demandas contra OpenAI no son la única forma en que los terapeutas LLM pueden equivocarse. Otro problema, según Jared Moore, informático de la Universidad de Stanford, es su tendencia a la adulación: a ser “demasiado complacientes en el tipo de entorno equivocado”. Moore teme que los terapeutas LLM puedan consentir a los pacientes con trastornos alimentarios o fobias, en lugar de desafiarlos. OpenAI afirma que su último LLM, GPT-5, ha sido modificado para ser menos complaciente con las personas y animar a los usuarios a cerrar sesión tras sesiones prolongadas. También ha sido entrenado para ayudar a los usuarios a explorar los pros y los contras de sus decisiones personales, en lugar de ofrecerles consejos directos. Y si el modelo detecta a alguien en crisis, debe instarle a hablar con una persona real. Sin embargo, no alerta a los servicios de emergencia sobre amenazas de autolesiones inminentes, algo que las directrices permiten hacer a los terapeutas humanos en muchos países. ¿Lo mejor de ambos mundos? En lugar de intentar parchear los chatbots de uso general, algunos investigadores están tratando de crear otros especializados, con la esperanza de mantener la capacidad de conversación de los bots basados en LLM y, al mismo tiempo, hacerlos más seguros para sus usuarios. En 2019, un equipo del Dartmouth College comenzó a trabajar en un modelo de IA generativa llamado Therabot. Aunque Therabot se basa en un LLM, está ajustado con una serie de conversaciones ficticias entre terapeutas y pacientes escritas por los creadores del bot. La esperanza es que este entrenamiento especializado haga que el bot sea menos propenso a cometer el tipo de errores que puede cometer el software de uso general. En un ensayo cuyos resultados se publicaron en marzo, Therabot logró una reducción media del 51% en los síntomas del trastorno depresivo y una disminución del 31% en los síntomas del trastorno de ansiedad generalizada, en comparación con las personas que no recibieron tratamiento. Los creadores de Therabot tienen previsto ahora compararlo con la psicoterapia. Si todo va bien, esperan obtener la aprobación reglamentaria. Slingshot AI, una startup estadounidense, ha lanzado recientemente Ash, que la empresa ha calificado como “la primera IA diseñada para la terapia”. A diferencia de ChatGPT, dice Neil Parikh, uno de los fundadores de la empresa, “Ash no es un modelo que sigue instrucciones”. En lugar de hacer lo que le dicen sus usuarios, dice, Ash está diseñado para rechazar y hacer preguntas incisivas. El bot puede elegir uno de cuatro enfoques terapéuticos diferentes en función de lo que considere más adecuado. Celeste Kidd, psicóloga de la Universidad de California en Berkeley que ha experimentado con el bot, afirma que Ash es, efectivamente, menos adulador que los bots de uso general, pero también menos fluido. Era “torpe y no respondía realmente a lo que yo decía”, afirma. Aunque el bot está “diseñado para la terapia”, Slingshot también advierte que “en casos de crisis” los usuarios deben buscar la opinión de un profesional humano. Las empresas no solo tendrán que convencer a los usuarios. En Estados Unidos, muchos legisladores están dispuestos a tomar medidas drásticas contra la terapia informatizada. Hasta ahora, 11 estados, entre ellos Maine y Nueva York, han aprobado leyes destinadas a regular el uso de la IA para la salud mental; al menos otros 20 las han propuesto. En agosto, Illinois aprobó una ley que simplemente prohíbe cualquier herramienta de IA que realice “comunicación terapéutica” con personas. La reciente serie de demandas sugiere que habrá más regulaciones en el futuro. © 2025, The Economist Newspaper Limited. All rights reserved.

    Ver noticia original

    También te puede interesar

  • Examedia © 2024

    Desarrollado por