Contacto

×
  • +54 343 4178845

  • bcuadra@examedia.com.ar

  • Entre Ríos, Argentina

  • ¿Dejarías que un algoritmo decidiera tu tratamiento?

    » Comercio y Justicia

    Fecha: 17/06/2025 08:34

    Por Evangelina Belén Mollar * Exclusivo para Comercio y Justicia Caso Ficticio: Martina, de 45 años, recibió hace unos meses un diagnóstico de cáncer de mama. En la reunión con su oncólogo, este le presentó una serie de opciones terapéuticas basadas en un sistema de inteligencia artificial (IA) que había analizado miles de casos similares. “Según el algoritmo, esta combinación tiene un 85% de efectividad en mujeres con su perfil genético”, le dijo. Martina, que confiaba en su médico, pero no entendía el funcionamiento del sistema, preguntó: “¿Y si el algoritmo se equivoca? ¿Quién se hace responsable?” Este caso, cada vez más frecuente, pone sobre la mesa una pregunta tan simple como inquietante: ¿puede una máquina tomar decisiones sobre nuestra salud? ¿Dónde queda el criterio médico? ¿Y la autonomía del paciente? ¿Qué ocurre con la ética en esta ecuación? Promesa y desafío La inteligencia artificial se ha convertido en una herramienta poderosa dentro del sistema de salud. Ya se utiliza para diagnosticar enfermedades a partir de imágenes médicas, predecir riesgos cardíacos con base en antecedentes clínicos, personalizar tratamientos oncológicos e incluso detectar signos de depresión a través del lenguaje o la expresión facial. Las ventajas son evidentes: rapidez, precisión, capacidad para analizar millones de datos en segundos. Algunos estudios han demostrado que ciertos algoritmos superan a los especialistas en determinadas tareas específicas, como la detección temprana de cáncer de piel o retinopatía diabética. Sin embargo, detrás de esta revolución tecnológica surgen dilemas éticos profundos. Porque no todo lo que es técnicamente posible es moralmente aceptable. ¿Decisiones sin alma? La bioética, disciplina que reflexiona sobre los dilemas en la medicina y la biotecnología, ha comenzado a alzar la voz frente al avance de la IA en salud. ¿Por qué? Porque cuando un algoritmo propone -o impone- un tratamiento, se corre el riesgo de dejar de lado aspectos humanos fundamentales. Las máquinas no sufren, no se angustian, no consideran el contexto familiar, los miedos ni los deseos de un paciente. Un algoritmo puede sugerir amputar una pierna para salvar una vida, pero no puede escuchar lo que esa pérdida significará para esa persona, siempre dependerá de la información que le indiquen. Y aunque muchas veces se habla de que la IA “ayuda a tomar decisiones”, en la práctica, el riesgo es que la tecnología pase de ser una herramienta a ser una autoridad incuestionable. ¿Quién se hace cargo? Uno de los grandes dilemas es la distribución de la responsabilidad. Si una IA falla -como ya ha ocurrido-, ¿quién es el responsable? ¿El médico que confió en ella? ¿El hospital que la compró? ¿El programador que diseñó el sistema? La falta de explicabilidad de muchos algoritmos (lo que se conoce como el problema de la “caja negra”) hace que incluso los propios desarrolladores no puedan explicar cómo se llegó a una determinada recomendación. Esto no solo genera inseguridad jurídica, sino que socava la autonomía del paciente: ¿cómo puede alguien dar un consentimiento informado si no comprende qué se está proponiendo y por qué? Datos entrenados con sesgos Otro grave problema es el sesgo algorítmico. Si los sistemas de IA se entrenan con datos históricos que ya contienen desigualdades, es probable que las reproduzcan. Por ejemplo, si un algoritmo fue entrenado mayoritariamente con datos de hombres blancos, es probable que tenga menor precisión en mujeres o en personas de otras etnias. Esto no es una teoría: existen estudios publicados que demuestran que un sistema utilizado para priorizar atención médica puede favorecer a determinados pacientes frente a otros con condiciones de salud similares. ¿El motivo? El algoritmo usaba el historial de gastos médicos como indicador de necesidad, sin tener en cuenta que algunos de esos pacientes solían recibir menos tratamientos. El paciente en el centro… ¿o desplazado? La relación médico-paciente ha sido siempre el núcleo de la medicina. La confianza, la comunicación, la empatía son componentes esenciales del proceso terapéutico. ¿Qué ocurre cuando se introduce una tercera parte -una máquina- en esa relación? Si el profesional se ampara en lo que dice el algoritmo, ¿escucha realmente al paciente? Si el paciente no puede discutir ni entender la propuesta tecnológica, ¿sigue siendo libre para decidir? Es aquí donde la bioética recuerda un principio esencial: la tecnología debe estar al servicio de la persona, no al revés. Camino posible Frente a estos desafíos, diferentes organismos internacionales -como la UNESCO, la Unión Europea y diversas sociedades de bioética- han comenzado a desarrollar principios éticos para el uso de IA en salud. Entre ellos: -Transparencia: los sistemas deben ser comprensibles y explicables. -No discriminación: deben diseñarse para evitar sesgos. -Responsabilidad: debe haber claridad sobre quién responde por las decisiones. -Autonomía: los pacientes deben tener derecho a aceptar o rechazar el uso de IA. -Supervisión humana: la última palabra debe ser siempre de un ser humano. Estos principios buscan evitar que el entusiasmo tecnológico avance sin frenos, y garantizar que las decisiones sigan siendo humanas, reflexivas y respetuosas de los derechos de las personas. Formación, regulación y sentido común La bioética propone tres claves para una IA en salud que sea justa y segura: -Formación profesional: médicos, enfermeros y otros actores sanitarios deben comprender cómo funcionan estos sistemas, sus limitaciones y sus implicancias éticas. No basta con “usarlos”, hay que saber pensarlos. -Participación de comités de bioética: estos espacios pueden ayudar a evaluar los sistemas antes de implementarlos, asesorar en casos difíciles y elaborar guías institucionales claras. -Educación al paciente o alfabetización digital: nadie puede dar un consentimiento real si no entiende de qué se trata. Es clave explicar con lenguaje claro qué hace la IA, qué no hace y cuáles son las opciones disponibles. Conclusión: tecnología con ética o sin rumbo La inteligencia artificial puede ser una aliada formidable en la medicina del presente y del futuro. Pero si se la deja actuar sin supervisión, sin reflexión y límites y sin ética, puede volverse una amenaza para la equidad, la autonomía y la humanidad de la atención sanitaria. La bioética no está en contra del progreso tecnológico, pero sí nos recuerda que no hay verdadero progreso si no se pregunta por el bien, la justicia y la dignidad humana. En tiempos donde los algoritmos parecen tener todas las respuestas, la bioética nos enseña a seguir haciendo preguntas. (*) Abogada. Especialista en Bioética. Integrante del comité de Bioética del Incucai (antes, de la SAU y del Hospital Vélez Sarsfield). Directora Regional para Latinoamérica, división Bioethx, Aquas.inc. (Washington DC). Consultora.

    Ver noticia original

    También te puede interesar

  • Examedia © 2024

    Desarrollado por