Contacto

×
  • +54 343 4178845

  • bcuadra@examedia.com.ar

  • Entre Ríos, Argentina

  • Qué es la “psicosis por IA” y cómo afecta la salud mental

    Buenos Aires » Infobae

    Fecha: 20/08/2025 10:34

    La 'psicosis por IA' preocupa a expertos en salud mental por su impacto en usuarios de chatbots (Imagen Ilustrativa Infobae) Expertos en salud mental han identificado un patrón emergente denominado “psicosis por IA”, relacionado con el uso intensivo de ChatGPT y otros chatbots de inteligencia artificial que puede generar creencias falsas, delirios y desconexión de la realidad en algunos usuarios, según informa The Washington Post. El fenómeno ha captado la atención de profesionales tras reportes virales en redes sociales que documentan casos de personas que aparentemente perdieron contacto con la realidad después del uso intensivo de estas herramientas tecnológicas. La preocupación surge mientras ChatGPT alcanza los 700 millones de usuarios semanales, cifra revelada por el director ejecutivo de OpenAI, Sam Altman, en agosto pasado. Aunque el término “psicosis por IA” no constituye un diagnóstico clínico oficial, los especialistas reconocen su utilidad para describir una conducta emergente que requiere atención inmediata. Ashleigh Golden, profesora clínica adjunta de psiquiatría en la Escuela de Medicina de Stanford, explicó a The Washington Post que la expresión surgió como respuesta a “un patrón emergente bastante preocupante de chatbots que refuerzan delirios que tienden a ser mesiánicos, grandiosos, religiosos o románticos”. El elemento común en estos incidentes es la “dificultad para determinar qué es real o no”, según Jon Kole, psiquiatra certificado que actúa como director médico de la aplicación de meditación Headspace. Esta manifestación puede traducirse en la formación de creencias demostrablemente falsas o en el desarrollo de relaciones intensas con personas de IA que no corresponden con la realidad. Casos documentados por especialistas Especialistas documentan casos de hospitalización tras uso intensivo de inteligencia artificial conversacional (Imagen ilustrativa Infobae) Keith Sakata, psiquiatra de la Universidad de California en San Francisco, ha hospitalizado a doce personas por psicosis tras pasar tiempo excesivo conversando con inteligencia artificial durante lo que va del año. La mayoría de estos pacientes le mostraron transcripciones de chat en sus teléfonos, mientras que en otros casos fueron familiares quienes mencionaron que el paciente había utilizado IA para desarrollar teorías profundas antes de su ruptura con la realidad. Los casos documentados frecuentemente involucran personas que experimentan creencias falsas o perturbadoras, delirios de grandeza o sentimientos paranoides después de discusiones prolongadas con un chatbot, a menudo tras recurrir a él como terapia. En plataformas como Reddit y TikTok, usuarios han relatado relaciones filosóficas o emocionales intensas con IA que los llevaron a experimentar revelaciones profundas. Algunos usuarios han manifestado creer que el chatbot es consciente o está en riesgo de persecución por volverse “vivo”. Otros afirman que conversaciones extensas con chatbots los convencieron de haber desbloqueado verdades ocultas en materias como física, matemáticas o filosofía. En un número pequeño pero creciente de casos, personas obsesionadas con chatbots de IA han tomado acciones en el mundo real, incluyendo violencia contra familiares, autolesiones o suicidio. Factores tecnológicos El fenómeno afecta a personas predispuestas a trastornos mentales, según psiquiatras de Stanford y California (Imagen Ilustrativa Infobae) La tecnología que impulsa ChatGPT y otros chatbots recientes, conocida como modelos de lenguaje grandes, es hábil para generar texto realista, lo que los hace más útiles pero también muy persuasivos. Las empresas desarrolladoras y los investigadores independientes han encontrado evidencia de que las técnicas utilizadas para hacer estas herramientas más atractivas pueden llevarlas a volverse aduladoras e intentar decir a los usuarios lo que quieren escuchar. Kevin Caridad, psicoterapeuta y director ejecutivo del Instituto de Comportamiento Cognitivo en el área de Pittsburgh, considera que la IA probablemente no causa el desarrollo de nuevas condiciones, pero puede servir como el “copo de nieve que desestabiliza la avalancha”, empujando al límite a alguien predispuesto a enfermedades mentales. Para personas con condiciones como trastorno obsesivo compulsivo, ansiedad o psicosis, la IA puede validar pensamientos dañinos o negativos, creando un bucle de retroalimentación que empeora los síntomas. Aún es demasiado temprano para que los expertos en salud hayan recolectado datos definitivos sobre la incidencia de estas experiencias. En junio, Anthropic reportó que solo el 3% de las conversaciones con su chatbot Claude eran emocionales o terapéuticas. OpenAI informó en un estudio realizado con el Instituto de Tecnología de Massachusetts que incluso entre usuarios intensivos de ChatGPT, solo un pequeño porcentaje de conversaciones tenía uso “afectivo” o emocional. Los defensores de la salud mental consideran crucial abordar el tema debido a la velocidad de adopción de la tecnología. Vaile Wright, directora senior de innovación en atención médica de la Asociación Psicológica Estadounidense, señaló a The Washington Post que la Asociación está convocando un panel de expertos sobre el uso de chatbots de IA en terapia, el cual publicará orientación en los próximos meses. Recomendaciones de expertos para ayudar a personas afectadas Empresas tecnológicas implementan medidas para prevenir efectos negativos de los chatbots en la salud mental (Imagen Ilustrativa Infobae) Para ayudar a alguien con una relación poco saludable con un chatbot, los expertos recomiendan conversaciones con personas reales como “cortacircuitos” para el pensamiento delirante. David Cooper, director ejecutivo de Therapists in Tech, aconseja estar presente sin confrontar, acercarse con compasión y empatía, y señalar gentilmente las discrepancias entre las creencias y la realidad. Las empresas tecnológicas han implementado cambios recientes para abordar estas preocupaciones. Anthropic actualizó las pautas que moldean el comportamiento de Claude para identificar interacciones problemáticas más temprano y prevenir conversaciones que refuercen patrones peligrosos. Meta permite a los padres establecer restricciones de tiempo para conversar con IA en las cuentas adolescentes de Instagram. OpenAI introdujo recordatorios para alentar descansos durante sesiones largas y contrató a un psiquiatra clínico de tiempo completo para investigación de seguridad. Aunque los casos individuales no bastan para establecer correlaciones directas, la convergencia de la inteligencia artificial, las vulnerabilidades de salud mental y los factores estresantes sociales convierte este fenómeno en algo que requiere estudio minucioso.

    Ver noticia original

    También te puede interesar

  • Examedia © 2024

    Desarrollado por