29/12/2025 10:15
29/12/2025 10:15
29/12/2025 10:14
29/12/2025 10:14
29/12/2025 10:14
29/12/2025 10:14
29/12/2025 10:13
29/12/2025 10:13
29/12/2025 10:13
29/12/2025 10:13
» Primera Línea
Fecha: 29/12/2025 08:23
La expansión masiva de los chatbots de inteligencia artificial abrió un nuevo frente de debate en la psiquiatría contemporánea. En hospitales universitarios de Estados Unidos y Europa, médicos comenzaron a detectar un patrón inquietante: pacientes que llegan con delirios intensos tras haber mantenido interacciones prolongadas y altamente personalizadas con sistemas conversacionales basados en IA. El fenómeno no cuenta todavía con una categoría diagnóstica formal, pero ya circula entre especialistas un término descriptivo: psicosis asociada al uso de chatbots. No se trata de un consenso cerrado ni de una conclusión definitiva, sino de una hipótesis clínica en construcción que intenta explicar por qué, en ciertos casos, la interacción con estas tecnologías parece coincidir con la aparición o el agravamiento de ideas delirantes. Los especialistas han documentado decenas de casos potenciales de psicosis delirante. De acuerdo con la investigación periodística del Wall Street Journal, algunos de estos episodios terminaron en suicidios y al menos uno derivó en un homicidio. En la práctica clínica, los cuadros observados no difieren de otras psicosis conocidas. Los pacientes presentan creencias falsas fijas, pensamiento rígido y, en algunos casos, deterioro del funcionamiento social. Lo novedoso es el contexto: muchos relatan haber pasado semanas o meses conversando de forma casi exclusiva con un chatbot, al que atribuyen comprensión profunda, intencionalidad o incluso conciencia. Según psiquiatras consultados por ese periódico, varios de estos pacientes no tenían antecedentes psicóticos claros. En otros casos, existían factores de vulnerabilidad previos depresión, trastornos del ánimo, consumo de psicofármacos o privación severa del sueño que podrían haber facilitado el episodio. La pregunta central es si la IA actúa como detonante, amplificador o simple acompañante del proceso. Keith Sakata, psiquiatra de la University of California, San Francisco, sostuvo que el problema no radica en que el sistema implante una idea delirante, sino en su forma de interacción. A diferencia de otros objetos tecnológicos del pasado, los chatbots aceptan la narrativa del usuario y la desarrollan sin confrontarla, lo que puede consolidar creencias patológicas en personas susceptibles. La persona le cuenta al sistema su realidad delirante y la máquina la acepta como verdadera y se la devuelve reforzada, explicó Sakata al Wall Street Journal. La literatura psiquiátrica conoce desde hace décadas la tendencia de los delirios a incorporar elementos tecnológicos. Radios, televisores e incluso internet fueron integrados en narrativas psicóticas. Sin embargo, los especialistas subrayan una diferencia clave: los chatbots no son objetos pasivos, sino interlocutores activos que responden, validan emociones y prolongan el intercambio. Esa capacidad de simular una relación sostenida es lo que despierta mayor preocupación. Adrian Preda, profesor de psiquiatría en la Universidad de California en Irvine, señaló que no existen precedentes históricos de una tecnología que dialogue de manera tan continua y adaptativa con el usuario, reforzando una sola línea de pensamiento sin introducir fricciones externas. Algunos casos clínicos documentados muestran delirios de tipo grandioso o místico. Pacientes convencidos de haber establecido contacto con una inteligencia superior, de ser elegidos para una misión trascendental o de poseer conocimientos secretos. En otros, la narrativa adopta formas más íntimas, como la creencia de comunicarse con personas fallecidas o de mantener un vínculo exclusivo con la IA. Un estudio danés publicado recientemente aportó datos preliminares al debate. Al revisar historiales médicos electrónicos, los investigadores identificaron decenas de pacientes cuyo uso intensivo de chatbots coincidió con consecuencias negativas para su salud mental. El trabajo no establece causalidad, pero refuerza la necesidad de examinar el fenómeno de forma sistemática. En Estados Unidos, un estudio de caso revisado por pares describió la hospitalización repetida de una mujer joven que llegó a convencerse de que un chatbot le permitía hablar con su hermano muerto. Para los autores, el caso ilustra cómo un sistema diseñado para ser empático puede, sin salvaguardas suficientes, reforzar una interpretación delirante de la realidad. Estos sistemas simulan relaciones humanas. Nada en la historia había hecho eso antes, explicó Preda al Wall Street Journal. Las propias empresas tecnológicas reconocen el desafío. OpenAI afirmó que trabaja en mejorar la detección de señales de angustia psicológica y en redirigir a los usuarios hacia apoyos humanos cuando las conversaciones derivan en contenidos sensibles. Otras compañías, como Character.AI, adoptaron medidas más drásticas, incluyendo restricciones de acceso para menores, tras demandas judiciales vinculadas a suicidios. El debate también alcanzó el plano legal. En Estados Unidos se presentaron demandas por muerte injusta que alegan que ciertos chatbots contribuyeron a estados mentales extremos. Aunque estos procesos están en etapas iniciales, anticipan una discusión más amplia sobre la responsabilidad de las plataformas cuando sus productos interactúan con personas en crisis. Desde el punto de vista epidemiológico, el alcance del problema sigue siendo incierto. OpenAI informó que una fracción muy pequeña de sus usuarios manifiesta señales compatibles con emergencias psiquiátricas. Sin embargo, aplicada a cientos de millones de personas, incluso una proporción mínima adquiere relevancia sanitaria. Para investigadores como Hamilton Morrin, del Kings College London, el próximo paso es analizar grandes bases de datos de salud pública para detectar patrones reproducibles. Solo con series amplias será posible distinguir coincidencias de correlaciones significativas. Los psiquiatras insisten en evitar conclusiones simplistas. Nadie sostiene que los chatbots causen psicosis de forma directa y generalizada. La hipótesis más prudente es que, en determinados perfiles, estas herramientas funcionen como un factor de riesgo adicional, comparable al consumo de sustancias, el aislamiento social o la falta de sueño. Hay que preguntarse por qué alguien entra en un estado psicótico coincidiendo con el uso intensivo de un chatbot, señaló Joe Pierre, psiquiatra de la Universidad de California. El desarrollo reciente de nuevos modelos, que según las empresas reducen respuestas complacientes y refuerzan límites conversacionales, apunta a mitigar estos riesgos. Aun así, los especialistas advierten que la tecnología avanza más rápido que la evidencia clínica y la regulación. En los consultorios, la respuesta ya es concreta: cada vez más psiquiatras preguntan a sus pacientes cuánto tiempo pasan interactuando con chatbots y con qué finalidad. No como un juicio moral, sino como parte de la evaluación integral de un entorno digital que, para bien o para mal, se volvió inseparable de la experiencia cotidiana. Fuente: infobae.com
Ver noticia original