Contacto

×
  • +54 343 4178845

  • bcuadra@examedia.com.ar

  • Entre Ríos, Argentina

  • Un chat con Inteligencia Artificial vence a un equipo de 50 médicos en el diagnóstico de enfermedades

    Concordia » Hora Digital

    Fecha: 21/11/2024 01:45

    Un estudio reciente publicado en la revista JAMA Network Open ha planteado la interesante cuestión de si la inteligencia artificial puede superar a los médicos en la precisión de los diagnósticos. En este estudio, se comparó el rendimiento de ChatGPT-4, un modelo de lenguaje avanzado, con el de 50 médicos en un escenario controlado de diagnósticos clínicos. Los resultados sorprendieron a los investigadores, ya que el chatbot demostró ser más preciso que los médicos y más eficiente en la identificación de enfermedades complejas. La investigación, liderada por el doctor Adam Rodman del Beth Israel Deaconess Medical Center, evaluó la capacidad de diagnóstico a través de seis casos clínicos basados en pacientes reales. Mientras que los médicos lograron una precisión media del 74% (sin la ayuda de herramientas) y del 76% (con el apoyo de ChatGPT), el chatbot alcanzó una precisión media del 90% trabajando de forma autónoma. Este hallazgo plantea preguntas sobre el potencial de la inteligencia artificial en el ámbito médico y sobre la reluctancia de los profesionales a confiar en estas tecnologías emergentes. El Dr. Rodman expresó su sorpresa ante los resultados y destacó que los médicos suelen confiar firmemente en sus diagnósticos, incluso cuando la IA les ofrece sugerencias correctas. Este sesgo cognitivo, junto con la falta de formación en el uso adecuado de herramientas basadas en IA, surgió como uno de los principales desafíos en la integración de estas tecnologías en la práctica médica. El experimento involucró a 50 médicos, entre residentes y especialistas con experiencia en diferentes áreas, que participaron de forma virtual y presencial. Se les presentaron seis casos clínicos basados en pacientes reales, pero cuidadosamente seleccionados para no coincidir con los datos de entrenamiento de ChatGPT-4. Los participantes tenían que identificar hasta tres posibles diagnósticos para cada caso, respaldar sus hipótesis con evidencia y detallar los pasos adicionales necesarios para confirmar sus conclusiones. Mientras algunos médicos utilizaron herramientas convencionales, otros contaron con la ayuda de ChatGPT-4 para guiar sus decisiones. El análisis de los resultados reveló que los médicos asistidos por el chatbot no mejoraron significativamente en comparación con quienes solo utilizaron recursos tradicionales. Esto llevó a los investigadores a examinar más a fondo las interacciones entre los médicos y la IA, identificando patrones de resistencia y un uso subóptimo de la herramienta. Un hallazgo destacado fue la superioridad de ChatGPT-4 trabajando de forma independiente, mostrando mayor precisión en los diagnósticos y siendo más eficiente en términos de tiempo. A pesar de que los médicos asistidos por el chatbot dedicaron en promedio 519 segundos por caso, aquellos que no utilizaron IA tardaron 565 segundos. Sin embargo, el modelo por sí solo no solo fue más rápido, sino también más preciso, llegando al 92% en algunos casos específicos. Los investigadores sugieren que la falta de superación de los médicos asistidos por la IA en solitario radica en la forma en que interactúan con estas herramientas. Muchos médicos las utilizaron como simples motores de búsqueda, formulando preguntas específicas en lugar de aprovechar sus capacidades integrales. Solo una minoría utilizó estrategias más avanzadas, como copiar y pegar la historia clínica completa para obtener un análisis exhaustivo de ChatGPT-4. Este estudio pone de manifiesto el potencial de la IA como un "extensor médico", capaz de brindar segundas opiniones valiosas y asistir en casos complejos. Aunque los resultados son alentadores, los autores advierten que la IA no puede reemplazar la experiencia y el juicio humanos en entornos clínicos. La integración efectiva de herramientas como ChatGPT-4 dependerá de superar desafíos tanto tecnológicos como humanos, así como de la colaboración entre médicos e instituciones para optimizar su uso en la práctica clínica.

    Ver noticia original

    También te puede interesar

  • Examedia © 2024

    Desarrollado por