14/07/2025 18:58
14/07/2025 18:56
14/07/2025 18:56
14/07/2025 18:55
14/07/2025 18:55
14/07/2025 18:55
14/07/2025 18:55
14/07/2025 18:55
14/07/2025 18:55
14/07/2025 18:54
» Comercio y Justicia
Fecha: 14/07/2025 12:29
Por Pablo Antonio Salas* En una profesión con eminentes tintes tradicionales, puede resultarnos fácil adoptar una actitud nostálgica y caer en la crítica de los fenómenos que dinamitan los paisajes de antaño, que siempre parecen mejores. Eso pasa un poco con la IA. El desafío es doble: aprender a navegar en contra del impulso a descalificarla de plano, y para ello, desentrañar en dónde se ubica su debilidad y cómo puede abordarse jurídicamente. Como en una clase un docente pide a sus estudiantes: “pregúntenme, háblenme, dialoguen conmigo, necesitamos saber cómo están pensando”, creo en todo proceso de intelección como construcción, conjunto de pasos en el que tomamos fuentes, analizamos, procesamos, descartamos lo erróneo, aplicamos, aprendemos y nos volvemos autónomos. Entender cómo se aprende para, en última instancia, acompañar y lograr un nivel responsable y suficiente de autonomía para aplicar. Bueno: la IA a veces se comporta como un mal estudiante. Aquí reposa el núcleo de la cuestión. Hoy la IA no nos deja ver cómo piensa, rastrear acabadamente sus fuentes, indagar en sus mecanismos de construcción. Y de ello se derivan en los grandes problemas, sesgos y alucinaciones que, especialmente en materia jurídica, son el objeto de una permanente advertencia a colegas tanto en el ámbito profesional como académico. ¿Puede hoy la IA, dar cuenta de su construcción? Desde el derecho, la falta de trazabilidad y transparencia algorítmica no es un detalle, sino una carencia estructural que comienza a ser problematizada por los instrumentos regulatorios. El Reglamento de Inteligencia Artificial de la Unión Europea (Reglamento UE 2024/1689), recientemente aprobado, diferencia entre niveles de riesgo en la IA. Todo sistema de IA de “riesgo alto”, como los utilizados en justicia automatizada, compliance legal o scoring regulatorio, debe ofrecer trazabilidad documental, supervisión humana significativa, explicabilidad de resultados y canales de reclamo accesibles. Estados Unidos, sin ley federal unificada, avanzó mediante la Executive Order on Safe, Secure, and Trustworthy Artificial Intelligence (octubre 2023, firmada por Biden), que instruye a las agencias a evaluar riesgos discriminatorios, impactos legales y niveles de opacidad algorítmica. Incluso en jurisdicciones como California, el uso de IA está condicionado por normas sobre sesgo, privacidad y transparencia bajo la California Consumer Privacy Act (CCPA), la norma estatal más dura en materia de privacidad, usualmente comparada con los estándares de GDPR. En América Latina, el Marco Legal de Inteligencia Artificial de Brasil (Ley 14.510/2023) adopta principios similares, y aunque con mayor flexibilidad para PYMES, impone requisitos básicos de explicabilidad, control humano y responsabilidad compartida entre proveedor y usuario. En Argentina, sin ley de IA, los proyectos parlamentarios toman como referencia el marco europeo, basado en principios como la transparencia, control humano significativo, responsabilidad técnica, respeto a los derechos fundamentales y prohibición de decisiones automatizadas que afecten de modo directo derechos individuales sin supervisión humana. Mientras tanto, la normativa aplicable sigue siendo fragmentaria. Pero volvamos al punto que nos interesa particularmente: el rol del profesional jurídico como validador. En algún otro extracto me he referido a los alcances con los que considero puede la IA ser empleada de forma responsable en la tarea jurídica. Sin explayarme nuevamente aquí, acuñé la idea del “copiloto”, por contraposición al piloto automático. Agrego: cuando uno elige copiloto, puede ser su cónyuge, su hermano, un amigo despierto -alguien con quien podemos congeniar, que no nos va a sugerir un atajo inventado, o peor, una ruta en contramano. Esto traducido, significa que nos toca chequear qué proveedor de IA usamos, qué promete en sus términos, y – claro- usarla como una fuente más, con chequeo final humano. En efecto, algunas universidades del mundo incluyen ya en sus syllabus la obligación de referirlos en las citas bibliográficas como una fuente más, bajo las mismas normas (APA, por caso). Me parece una buena práctica. Es cierto que nuestra responsabilidad profesional en este escenario no puede desviar el foco del problema subyacente, lo que aún debemos tomar como tarea: la legislación necesaria para exigir a los proveedores de servicios que empleen IA en software y en hardware que transparenten sus mecanismos. El Reglamento de la UE 2024/1689 obliga, por ejemplo, a que los desarrolladores registren sus bases de datos, revelen cómo entrenan sus modelos y definan los criterios algorítmicos cuando la IA sea utilizada en ámbitos de justicia, salud o recursos humanos. Estas disposiciones no sólo fijan estándares técnicos: establecen deberes jurídicos exigibles, con posibilidad de sanciones y responsabilidad civil y administrativa. Mientras tanto, en el sector privado, muchas compañías exigen ya cláusulas contractuales específicas sobre IA. Se piden garantías de transparencia algorítmica, responsabilidad por errores generados por IA y exclusión de decisiones automatizadas en asuntos sensibles. El principio de precaución contractual, combinado con el deber de seguridad y la buena fe, se vuelve central en este nuevo paisaje. La diferencia entre un copiloto y un piloto automático sigue siendo, al menos por ahora, una elección humana. Y profundamente jurídica. (*) Abogado LLM (Master of Laws), Director de Carrera UCC.
Ver noticia original