15/04/2026 20:45
15/04/2026 20:45
15/04/2026 20:44
15/04/2026 20:43
15/04/2026 20:43
15/04/2026 20:43
15/04/2026 20:43
15/04/2026 20:43
15/04/2026 20:43
15/04/2026 20:43
Buenos Aires » Infobae
Fecha: 15/04/2026 19:13
La discusión sobre IA ya no puede reducirse a innovación, desarrollo o competitividad. La cuestión de fondo es más seria: quién decide, con qué legitimidad y hasta dónde una sociedad está dispuesta a reemplazar el juicio humano por sistemas automatizados. Ese fue uno de los ejes centrales del X Coloquio Internacional sobre IA, Bioética y Neuroética, realizado en la Pontificia Universidad Católica de Rio Grande do Sul, en Porto Alegre, y organizado por el Instituto Nacional de IA y Sostenibilidad de Brasil. El encuentro dejó una conclusión difícil de soslayar: la IA dejó de ser una herramienta para convertirse en una cuestión de poder, responsabilidad y límites. Con especialistas de América, Europa, Asia y Medio Oriente, el coloquio abordó cuestiones como sostenibilidad, sesgos algorítmicos, medicina, neuroética, protección de datos, gobernanza democrática y agencia artificial. La amplitud de la agenda confirmó hasta qué punto la IA ya no puede pensarse como un recurso neutral ni como un simple mecanismo de eficiencia. Cuando interviene sobre personas, derechos e instituciones, pasa al centro mismo de la discusión pública. En ese marco, una de las intervenciones de mayor proyección normativa fue la del bioeticista argentino Fishel Szlajen, miembro titular de la Comisión Nacional de Bioética de la Argentina, quien presentó su propuesta de la Ética del Límite, un innovador marco ético general que además brinda fundamento para la gobernanza de la IA y de las biotecnologías emergentes. Su planteo se apartó de las fórmulas ya habituales sobre IA responsable y llevó la discusión a un punto más exigente: no solo cómo regular la biotecnología, sino qué decisiones no deben delegarse nunca a un algoritmo, aun cuando ello sea técnicamente posible. Ese desplazamiento conceptual resulta decisivo. Gran parte del debate actual gira en torno a la transparencia, la explicabilidad o la mitigación de sesgos. Todo eso es importante, pero no suficiente. Consultado por Infobae, Szlajen sostuvo que incluso un sistema eficiente, auditable y técnicamente robusto puede ser normativamente improcedente si invade ámbitos de decisión que, por su naturaleza moral, jurídica o política, exigen deliberación y responsabilidad humana directa. El problema, entonces, no es sólo si el algoritmo funciona, sino si corresponde que decida. Sobre su propuesta, Szlajen lo resumió con una definición precisa: La Ética del Límite funciona como un principio estructurante donde, en este caso particular, ordena las decisiones estableciendo de antemano qué no debe delegarse a un algoritmo, aun cuando sea técnicamente viable. Hay límites, como la responsabilidad e imputabilidad, que son irreductibles porque sostienen lo humano. Allí aparece una tesis de fuerte relevancia pública: la gobernanza de la IA no puede limitarse a corregir daños una vez producidos. Debe fijar fronteras previas para impedir que esos daños ocurran. La cuestión se vuelve especialmente delicada en salud, justicia, seguridad, educación y políticas públicas. En esos ámbitos, la delegación algorítmica no solo puede generar errores o injusticias; también puede erosionar la responsabilidad institucional, diluir la autoría de las decisiones y reemplazar el juicio prudencial por una lógica de rendimiento. Para cualquier Estado serio, la pregunta ya no es si incorporar IA, sino bajo qué límites hacerlo sin abdicar de su propia responsabilidad. Szlajen advirtió además que cuando el afán de optimizar lo invade todo, las decisiones dejan de sostenerse en una justificación ético-normativa y pasan a validarse por su rendimiento. Así, lo mejor termina siendo simplemente lo más rápido o rentable. La observación apunta a uno de los núcleos más delicados del problema contemporáneo: la creciente confusión entre superioridad instrumental y legitimidad. Lo más veloz no es necesariamente lo más justo. Lo más rentable no es necesariamente lo más prudente. Lo más eficiente no es necesariamente lo más humano. Ese fue uno de los aportes más relevantes del coloquio de Porto Alegre: mostrar que el debate internacional sobre IA empieza a dejar atrás cierta ingenuidad tecnocrática. Ya no alcanzan auditorías, protocolos o declaraciones de buenas intenciones cuando los sistemas operan sobre personas, derechos e instituciones. La cuestión decisiva es anterior: no sólo corregir, sino delimitar. En ese punto, la propuesta argentina adquirió un relieve singular. Como afirmó el propio Szlajen, sin la Ética del Límite, en el caso de la IA, la gobernanza queda reducida a respuestas reactivas cuando la biotecnología ya se impuso. El aporte es introducir un criterio preventivo, fijando límites antes que el avance tecnológico desborde la capacidad normativa del Estado. La observación tiene un peso particular en la Argentina, donde la discusión sobre IA suele oscilar entre el entusiasmo superficial y la improvisación regulatoria. Lo inédito de esta intervención no es solo la participación argentina en un foro internacional de alto nivel, sino que desde el país se haya formulado una categoría capaz de ordenar una discusión global en términos útiles para la decisión pública. La pregunta ya no es únicamente cómo regular lo que la IA hace, sino qué no debería hacer nunca. No se trata de frenar la innovación, sino de encauzarla. La ausencia de límites no es progreso, es desorientación normativa, concluyó Szlajen. En una época en la que demasiados dirigentes confunden modernización con automatización, para Szlajen la discusión de fondo pasa por otro lado: quién conserva el juicio, quién asume la responsabilidad y quién fija los límites ante una tecnología que avanza más rápido que la capacidad normativa del Estado. El coloquio de Porto Alegre terminó, pero la discusión que dejó planteada recién comienza. Porque ya no alcanza con administrar la IA: hay que gobernarla con límites.
Ver noticia original