05/10/2025 07:36
05/10/2025 07:35
05/10/2025 07:33
05/10/2025 07:33
05/10/2025 07:32
05/10/2025 07:31
05/10/2025 07:30
05/10/2025 07:25
05/10/2025 07:25
05/10/2025 07:23
» Radio Sudamericana
Fecha: 05/10/2025 06:06
Sábado 04 de Octubre de 2025 - Actualizada a las: 11:41hs. del 04-10-2025 ALARMA EN LA ACADEMIA Universidades y especialistas alertan sobre los límites de los chatbots para salud mental: pueden ser útiles como apoyo, pero no están diseñados para evaluar, diagnosticar ni tratar. Hay más adopción de IA, pero cae la confianza y crece la preocupación. Piden regulación y alfabetización digital. La popularidad de los chatbots disparó una práctica silenciosa: contarle problemas personales a una IA en vez de consultar a un profesional. El recurso puede dar “respuestas razonables” y cierto alivio inmediato, pero los especialistas destacan que no reemplaza la relación terapéutica ni los estándares clínicos. “Hay una escalada y gran preocupación por las crecientes consultas a los distintos chatbots a quienes les contamos nuestros problemas, pero eso es grave. La IA no está lista para reemplazar a un profesional”, explicó la psicóloga Daniela Gasparini a www.radiosudamericana.com Desde la psiquiatría, también ponen el foco en la alianza paciente-terapeuta: empatía, lectura del lenguaje no verbal, contención en crisis, evaluación del riesgo y encuadre ético-legal. “Hay un aspecto muy importante que tiene que ver con el vínculo humano; eso no es sencillo de reemplazar”, señaló el psiquiatra argentino Ricardo Corral, presidente de la AAP Los riesgos que señalan la academia y los clínicos Diagnósticos erróneos o incompletos . Los chatbots “confirman” lo que el usuario afirma (sesgo de confirmación) y no realizan evaluación clínica ni anamnesis estructurada. Pueden hallucinar (inventar información verosímil) y no ponderan contexto ni comorbilidades. . Los chatbots “confirman” lo que el usuario afirma (sesgo de confirmación) y no realizan evaluación clínica ni anamnesis estructurada. Pueden hallucinar (inventar información verosímil) y no ponderan contexto ni comorbilidades. Privacidad y datos sensibles . Las conversaciones pueden ser revisadas para “mejorar” sistemas; no rige el secreto profesional. . Las conversaciones pueden ser revisadas para “mejorar” sistemas; no rige el secreto profesional. Falsa sensación de contención. Una charla agradable no equivale a tratamiento: la IA no ofrece seguimiento ni plan terapéutico ni protocolos ante riesgo de auto/heteroagresión. Una charla agradable no equivale a tratamiento: la IA no ofrece seguimiento ni plan terapéutico ni protocolos ante riesgo de auto/heteroagresión. Sobrerreliancia tecnológica. La disponibilidad 24/7 y la respuesta inmediata pueden postergar la consulta adecuada. Qué dice la evidencia internacional sobre confianza en IA Un estudio global (Universidad de Melbourne y KPMG) muestra un cuadro matizado: sube el uso, pero baja la confianza y aumenta la preocupación. La mayoría pide más regulación y garantías organizacionales: La regulación es vista como necesaria por mayorías en casi todos los países; sólo 2 de cada 5 creen suficientes las normas actuales. Alfabetización en IA baja: altas tasas de uso con bajo conocimiento y formación, lo que limita evaluar límites y sesgos. altas tasas de uso con bajo conocimiento y formación, lo que limita evaluar límites y sesgos. Más adopción desde 2022, menos confianza y más preocupación: desciende la disposición a “confiar” y se reportan más temores, en parte por experiencias con errores/hallucinations. Salud es el caso “más confiable”, pero con cautela: sólo el 52% estaría dispuesto a confiar en IA en salud (la cifra más alta entre aplicaciones), y la gente se muestra más proclive a compartir datos que a confiar en el output clínico. sólo el 52% estaría dispuesto a confiar en IA en salud (la cifra más alta entre aplicaciones), y la gente se muestra más proclive a compartir datos que a confiar en el output clínico. Desinformación: 70% dice que ya no sabe si lo que ve online es real o generado por IA y casi 9 de cada 10 quieren leyes y medidas más fuertes contra la desinformación algorítmica. 70% dice que ya no sabe si lo que ve online es real o generado por IA y casi 9 de cada 10 quieren leyes y medidas más fuertes contra la desinformación algorítmica. Qué pide el público a las organizaciones: mecanismos de garantía (supervisión humana, estándares, auditorías independientes) aumentan la disposición a confiar (83%). Por qué no es terapia La empatía emocional, la lectura del gesto, tono y silencio, y la co-construcción de objetivos forman parte del cambio terapéutico. “Sin un alma humana tocando otra alma humana, no es terapia, es una serie de consejos sin corazón”, dijo Calvo. En crisis, la práctica clínica contempla triage, red de sostén, interconsultas y resguardo: hoy ningún chatbot garantiza ese encuadre. La Organización Mundial de la Salud (OMS) advirtió en 2024 que los modelos de lenguaje deben usarse solo con supervisión humana, tras una evaluación de riesgos y en un marco ético y legal claro. Por su parte, la FDA en Estados Unidos elaboró una guía preliminar para dispositivos médicos con IA y creó un comité específico para revisar los “dispositivos de salud mental habilitados por IA generativa”. En la práctica, esto significa que si un chatbot no está regulado como dispositivo médico, no puede considerarse terapia. ¿Puede servir como complemento? Sí, como herramienta de apoyo (psicoeducación general, registro de hábitos, preparación de la consulta) siempre que: No se use para autodiagnóstico; No postergue la atención profesional; Se protejan datos; Se contraste la información con fuentes clínicas y guías validadas. Algunos usuarios reconocen que la IA les brinda un desahogo o una sensación de compañía, incluso la humanizan poniéndole un nombre. Sin embargo, los psicólogos advierten que esas interacciones son superficiales y carentes de reciprocidad real. “La IA no nos reta, ni nos confronta. Confirma lo que vamos diciendo de forma superficial”, resumen los especialistas. Señales de alerta para buscar ayuda presencial Ideas de muerte/daño (propio o a terceros). Síntomas persistentes: ansiedad desbordada, insomnio grave, consumo problemático, retraimiento social, pánico, conductas de riesgo. Violencia, maltrato, abuso. Ante cualquiera de estos puntos, llamar a un servicio de emergencias o acudir al dispositivo de salud local. Uso responsable de IA en salud mental
Ver noticia original