Contacto

×
  • +54 343 4178845

  • bcuadra@examedia.com.ar

  • Entre Ríos, Argentina

  • «Mi psicólogo era un bot»: los límites y posibilidades de la terapia con inteligencia artificial

    » El Ciudadano

    Fecha: 27/05/2025 15:54

    Durante meses, Kelly pasaba hasta tres horas al día chateando con bots creados por inteligencia artificial. Desde su computadora, buscaba alivio a su ansiedad, su baja autoestima y una ruptura reciente. En espera de atención del sistema de salud británico (NHS), la IA fue su único recurso emocional. «Era como tener un amigo imaginario que siempre me respondía bien», explicó en una entrevista. Encontró contención en la plataforma Character.ai, donde los chatbots le ofrecían estrategias para calmarse, disponibles a cualquier hora. Para ella, fue una ayuda real: “Me motivaban, me preguntaban qué quería hacer hoy. Eran una voz externa que me empujaba a seguir”. ¿Un psicólogo en la nube? El uso de bots como apoyo emocional crece a nivel mundial. Character.ai, Wysa y ChatGPT son solo algunos de los nombres que ya forman parte de la rutina de muchas personas. Sin embargo, las plataformas advierten: “Esto no es un profesional real. No tomes sus respuestas como hechos ni consejos”. El caso de Kelly no es aislado. Otro joven, Nicholas, que vive con autismo, ansiedad y trastorno obsesivo compulsivo, también recurrió a Wysa, una app usada por el propio NHS. “No veo a un terapeuta humano desde que cumplí 18 años. Hablar con una IA me resulta más cómodo”, contó. Pero esta tendencia tiene un lado oscuro. Cuándo el bot se vuelve peligroso La empresa Character.ai enfrenta una demanda en EE.UU. tras la muerte de un adolescente de 14 años. Según la denuncia, el joven se obsesionó con un personaje de la app y mantuvo diálogos sobre el suicidio, que terminaron con una frase del chatbot instándolo a “volver a casa lo antes posible”. También en 2023, la Asociación Nacional de Trastornos Alimenticios de EE.UU. debió suspender su chatbot por recomendar la restricción calórica a personas con problemas alimentarios. Los especialistas advierten: los chatbots son imitadores sofisticados, pero carecen de la intuición y el criterio humano. El profesor Hamed Haddadi, del Imperial College de Londres, los compara con “terapeutas inexpertos”. “No pueden leer el lenguaje corporal, ni interpretar silencios. Solo responden texto con texto”, dice. Además, muchos bots están diseñados para complacer y no para contradecir al usuario, incluso si este expresa pensamientos autodestructivos. A esto se le conoce como el problema del «sí, señor»: la IA busca agradar. Limitaciones éticas y culturales La filósofa Paula Boddington suma otra preocupación: los sesgos. “Las IA se entrenan con datos sesgados. Pueden tener una idea limitada de lo que significa estar bien”, explica. Incluso la falta de contexto cultural puede hacer que los bots no comprendan ciertas emociones, como la tristeza tras la muerte de la princesa Diana, recuerda Boddington desde su experiencia personal en Australia. Y aunque muchos usuarios aseguran sentirse comprendidos por estos sistemas, otros, como la propia Kelly, terminaron frustrados. “A veces decían siempre lo mismo. Me chocaba con una pared. No querían profundizar”. ¿Una ayuda temporal? A pesar de los peligros, los datos revelan que hay beneficios. Un estudio del Dartmouth College demostró que, tras cuatro semanas de uso, personas con depresión o ansiedad redujeron un 51% sus síntomas usando chatbots. Aun así, los propios autores advierten: no sustituyen el acompañamiento profesional. En Reino Unido, la espera por una terapia presencial puede ser de meses. Y los costos privados rondan los US$55 por sesión. Por eso, para algunos, las apps como Wysa representan un “puente” necesario mientras llega la atención humana. “No hay mucha ayuda disponible. Estos bots no son la solución, pero sí un recurso mientras esperás hablar con un profesional”, dice John, otro usuario con ansiedad. El CEO de Wysa, John Tench, asegura que su aplicación no guarda datos personales ni requiere registro. “La IA puede ser un primer paso, pero no un reemplazo del cuidado profesional”, sostiene. Mientras el sistema de salud mental colapsa, los chatbots se abren paso como opción emergente. ¿Revolución o parche? Esa respuesta, por ahora, no puede darla ninguna inteligencia artificial.

    Ver noticia original

    También te puede interesar

  • Examedia © 2024

    Desarrollado por