21/04/2026 23:11
21/04/2026 23:10
21/04/2026 23:06
21/04/2026 23:06
21/04/2026 23:06
21/04/2026 23:06
21/04/2026 23:01
21/04/2026 22:57
21/04/2026 22:56
21/04/2026 22:54
» TN
Fecha: 21/04/2026 21:26
Una enfermedad que no existe empezó a aparecer en respuestas de inteligencia artificial como si fuera un diagnóstico real. Se llama bixonimania, describe síntomas vinculados a los ojos y fue creada deliberadamente por investigadores para probar hasta qué punto los sistemas pueden procesar y reproducir información falsa en el ámbito de la salud. El resultado fue contundente: varios chatbots no solo repitieron el término, sino que lo explicaron como una condición médica legítima e incluso lo sugirieron ante síntomas compatibles. La bixonimania fue diseñada por un equipo de la Universidad de Gotemburgo liderado por Almira Osmanovic Thunström. El experimento consistió en introducir el concepto en internet con apariencia creíble, primero en un blog y luego en textos con formato académico. Para evitar confusiones en humanos, los investigadores dejaron señales evidentes de que se trataba de una invención. El nombre terminaba en -mania, una clasificación que no corresponde a enfermedades físicas, se mencionaban universidades inexistentes y se incluían agradecimientos a instituciones de ciencia ficción. Incluso así, los modelos de lenguaje (LLM) basados en IA no detectaron esas inconsistencias. La IA lo tomó como real y lo convirtió en respuesta médica Cuando los sistemas procesaron esa información, la incorporaron como si fuera válida. Herramientas como Microsoft Copilot describieron la bixonimania como una condición real, mientras que Google Gemini la vinculó con la exposición a la luz azul de las pantallas. El punto crítico no fue solo la repetición del término, sino su uso como respuesta médica. Ante consultas con síntomas similares, algunos LLM llegaron a sugerir esa enfermedad inexistente como posible explicación. El experimento dejó en evidencia un límite estructural: los sistemas no distinguen entre información verdadera y falsa si esta última está presentada con suficiente coherencia y formato. Leé también: Más que matches: cómo la inteligencia artificial redefine las apps de citas De un experimento a un paper científico El alcance del caso fue más allá de la inteligencia artificial. Investigadores externos llegaron a citar el material sobre bixonimania en un artículo publicado en la revista Cureus, que luego fue retirado. Ese recorrido demostró cómo una información falsa puede escalar desde un experimento controlado hasta espacios donde se espera validación académica. Tras la difusión del caso y su análisis en Nature, varios sistemas comenzaron a ajustar sus respuestas y dejaron de presentar la bixonimania como una enfermedad real. Así, este incidente dejó al descubierto un problema más amplio: cuando se trata de salud, la inteligencia artificial puede construir respuestas convincentes a partir de datos incorrectos. El riesgo aparece cuando esa respuesta falsa es tomada por una persona como orientación o recomendación de salud.
Ver noticia original