Contacto

×
  • +54 343 4178845

  • bcuadra@examedia.com.ar

  • Entre Ríos, Argentina

  • El futuro de la medicina ante la inteligencia artificial: mitos y realidades

    Buenos Aires » Infobae

    Fecha: 16/09/2025 02:44

    IA y humanos no son opuestos: el futuro médico se basa en la integración tecnológica sin perder el juicio clínico ni el contacto humano (Imagen Ilustrativa Infobae) Desde hace un tiempo, varios artículos y entrevistas presagian un futuro sombrío para la humanidad frente a los sistemas de inteligencia artificial. No escapan a esto los diferentes campos de las actividades y el conocimiento, en las cuales el papel del ser humano parece ser que estará relegado a ser un recuerdo de un pasado obsoleto. Dentro de estos presagios se encuentran, desde ya, aquellos dedicados a ciertos conocimientos o capacitaciones específicas y, entre ellas, a la medicina. Notas recientes tomaron difusión pública con afirmaciones impactantes. En una, se asegura que la inteligencia artificial diagnostica mejor que los médicos y en otra un gurú tecnológico llega a desaconsejar incluso estudiar medicina, así como otros doctorados. Pero detrás del entusiasmo tecnológico hay exageraciones y riesgos. Veamos. Un artículo publicado en Bussiness Insider y en Futurism expuso la opinión de Jad Tarifi, fundador del primer equipo de inteligencia artificial generativa de Google, respecto a los estudios tradicionales y el futuro de la IA. El reemplazo de la empatía y la ética profesional por algoritmos es una visión incompleta frente a la complejidad de la atención médica real (Imagen Ilustrativa Infobae) Tarifi recomendó no preocuparse en estudiar y conseguir títulos en carreras como medicina o derecho, porque el avance tecnológico ha vuelto obsoletos estos modelos de formación extensos. El tono sensacionalista refleja bien el problema: titulares que buscan instalar un tema confundiendo, más que realmente llevando claridad. Se trata de una afirmación temeraria y desalentadora desde ya, pero ¿es real o verdadera? Olvidan que hoy existe un déficit mundial de médicos y que la práctica clínica es mucho más que un cálculo de probabilidades. Hay que recordar que por detrás de la idea de inteligencia artificial existe en realidad un programa de compilación de información sobre base probabilista. Los LLM (Large Language Model o Modelo de Lenguaje Grande) son un tipo de inteligencia artificial diseñado para entender y generar lenguaje humano, entrenado con enormes cantidades de texto y código para realizar tareas como crear contenido, traducir, responder preguntas y simular mantener conversaciones naturales. Son la base de la IA generativa y funcionan prediciendo la siguiente palabra en una secuencia, aprendiendo patrones y estructuras del lenguaje a partir de los datos de entrenamiento. Pero definitivamente no son inteligencias en el sentido humano o animal que lo pensamos. La evolución histórica muestra que la integración de tecnología transforma pero no elimina el rol del profesional sanitario (Imagen Ilustrativa Infobae) La sensación de empatía o comunicaciones parte del protocolo que se puede observar muy bien comparando los modelos GPT-4 y su evolución a 5 con menor participación de esa simulación de “humanidad”. El efecto buscado es claro: instalar la idea de que la profesión médica es cosa del pasado y así tener un espacio que definitivamente tiene que ver con control y poder. Sin embargo, la realidad es mucho más compleja y la interpretación de las mismas notas más allá de los titulares es otra. Otro artículo fue en la revista Time y presentó un estudio de Microsoft según el cual un sistema de IA habría diagnosticado con más precisión que médicos humanos. El artículo citaba un paper, donde se propone una simulación compleja de diagnóstico médico a través de IA, basada en 304 casos clínicos desafiantes del New England Journal of Medicine. Los médicos humanos utilizan la empatía y la experiencia para acompañar y orientar a los pacientes desde la consulta inicial (Imagen Ilustrativa Infobae) El resultado fue que la IA acertó en el 80% de los diagnósticos, frente al 20% de los médicos bajo esas reglas. Pero no se trató de pacientes reales, sino de escenarios simulados y seleccionados por su dificultad pedagógica, como si fueran problemas de examen diseñados para poner a prueba la sagacidad clínica. La IA funcionó como un “hospital virtual”: un conjunto de submodelos que cumplían roles de distintos especialistas, desde formular hipótesis hasta calcular costos. Esta IA no actúa como un médico humano: actúa como un panel interdisciplinario de médicos virtuales altamente especializados, y con acceso inmediato a datos simulados coherentes. Los médicos humanos, en cambio, participaron en condiciones muy limitadas, sin acceso a internet ni a recursos externos, lo que distorsiona la comparación y más allá de la cita quita validez a lo postulado mediáticamente en una lectura parcial. Extrapolar esos datos a la práctica clínica cotidiana es engañoso: la vida real no se resuelve en simulaciones ni con un panel de especialistas disponibles las 24 horas. Además, el benchmark utilizado (SDBench) no refleja la práctica cotidiana: son casos difíciles seleccionados por su valor pedagógico, no por su prevalencia clínica. La verdadera discusión es otra, no si usar o no los LLM, lo cual tendría tanto sentido como rehusar el uso de cualquier tecnología, o abandonar la formación médica, sino renovarla para integrar tecnología sin perder el juicio humano ni la ética profesional. Frente a la incertidumbre, el médico humano explica riesgos y opciones, un rol central en el acompañamiento de la salud (Imagen Ilustrativa Infobae) La medicina no es solo elegir el diagnóstico correcto en un conjunto de síntomas sino que es ver, tratar, interactuar con una persona y no alimentar un sistema con una colección de síntomas. Implica escuchar al paciente, interpretar la ambigüedad de los síntomas, explicar riesgos, acompañar en la incertidumbre y sostener la confianza. Reducir el acto médico a una competencia de aciertos es olvidar que lo que cura muchas veces no es la tecnología, sino el vínculo humano. Ningún algoritmo puede reemplazar la empatía, la prudencia ni la responsabilidad frente a la vida y la muerte. Este tipo de discursos no es nuevo. En el siglo XIX, el estetoscopio fue recibido con suspicacia: algunos decían que haría innecesaria la experiencia clínica directa. A comienzos del siglo XX, la radiología parecía prometer diagnósticos tan exactos que se pensaba que el médico de cabecera sobraría. Más cerca en el tiempo, en 2011, IBM presentó a Watson Health como la inteligencia artificial que revolucionaría la oncología y desplazaría a los especialistas. Una década después, el proyecto fue desmantelado por falta de resultados clínicos confiables. Pero quizás lo más anecdótico sea Platón en el “Fedro” que hablaba de los peligros de una nueva “tecnología”: la escritura. Cada innovación genera un ciclo de euforia, miedo y a veces extrapolaciones catastróficas, pero al final termina integrándose a la práctica médica sin anular la figura del profesional. Lo que amenaza hoy a la profesión no es la IA, sino el agotamiento de los médicos, y otras variables como la falta de especialistas en varios lugares del mundo. La menor matrícula en las universidades o no ser las que los mejores alumnos eligen, etc. La Organización Mundial de la Salud estima que en la próxima década habrá un déficit de 10 millones de trabajadores de la salud en el mundo, sobre todo en atención primaria. La relación médico-paciente se basa en la confianza y la comunicación, factores que los algoritmos de IA no pueden replicar (Imagen ilustrativa Infobae) El burnout, las largas jornadas, la burocracia y la sobrecarga de pacientes erosionan la vocación y empujan a muchos a abandonar la profesión. Desalentar a los jóvenes a estudiar medicina bajo el argumento de que “la IA los va a reemplazar” no solo es falso: es irresponsable. Lo que necesitamos es más médicos, mejor preparados, más motivados, valorados en su esfuerzo de esos largos años de capacitación y con herramientas que los apoyen en vez de sustituirlos o sugerirles que serán pronto dinosaurios. Desalentar a los jóvenes a elegir la profesión solo agravaría un problema ya grave. Hay muchos cambios por hacer y que en alguna medida se van realizando. La educación médica debe cambiar: menos énfasis en la memorización y más en ética, comunicación, liderazgo y capacidad de integrar herramientas tecnológicas. Aprender a usar herramientas como los lenguajes LLM o modelos de investigación y procesamiento de la información adecuados a estas nuevas tecnologías. Pero decir que la medicina está “obsoleta” es confundir crítica con entierro. La verdadera discusión no es “IA versus médicos”, sino cómo integrar lo mejor de ambos. La inteligencia artificial puede servir como apoyo al diagnóstico, acelerar triages en contextos de alta demanda, o mejorar la precisión en áreas complejas. Pero siempre bajo la supervisión de profesionales responsables. Sistemas de inteligencia artificial pueden analizar grandes volúmenes de datos médicos en segundos, agilizando diagnósticos complejos (Imagen Ilustrativa Infobae) La medicina del futuro no será la de los médicos sustituidos por máquinas, sino la de médicos que sepan usar la IA como una herramienta más, sin perder el centro humano del cuidado. El sensacionalismo vende titulares, pero confunde a la sociedad. La medicina no está obsoleta. Lo que está obsoleto es creer que un algoritmo, o el último invento puede reemplazar toda la evolución previa de un saber o conocimiento, en este caso la experiencia, la empatía y la ética de un profesional de carne y hueso. Por eso, la advertencia para pacientes y lectores es sencilla y debe quedar grabada: en caso de duda, siga consultando a su médico, no a la IA. * El doctor Enrique De Rosa Alabaster se especializa en temas de salud mental. Es médico psiquiatra, neurólogo, sexólogo y médico legista

    Ver noticia original

    También te puede interesar

  • Examedia © 2024

    Desarrollado por