Contacto

×
  • +54 343 4178845

  • bcuadra@examedia.com.ar

  • Entre Ríos, Argentina

  • Inteligencia artificial legal: lo que sí y lo que no

    » Comercio y Justicia

    Fecha: 30/06/2025 19:04

    Por Pablo Salas (*) exclusivo para COMERCIO Y JUSTICIA La transformación digital parece haberse instalado en el entorno corporativo como una suerte de imperativo de supervivencia organizacional en el sentido más parsoniano de la expresión. Puertas adentro de los departamentos legales, se vive como un dilema entre adaptación o pérdida de eficiencia, y en ese marco, la inteligencia artificial (IA) se presenta como la aliada ineludible. La IA -bien usada- ahorra tiempo, salva vidas y contiene una promesa de elevación de calidad de vida indiscutible. Al mismo tiempo, puede devenir en terreno apto para promesas desmedidas y riesgos subestimados. No toda IA es útil, ni legalmente segura. El ecosistema de IA legal es diverso y creciente, e incluye sistemas de análisis predictivo para litigios, plataformas de due diligence automatizada, asistentes que redactan contratos y motores de búsqueda inteligentes para las áreas de compliance. Su uso responsable exige saber qué herramientas usar, y para qué. Un primer nivel está representado por la IA para gestión documental inteligente. Empresas en Argentina como Mercado Libre e YPF utilizan IA para clasificación, seguimiento y actualización automática de contratos y políticas internas. Existen plataformas robustas y con reputación internacional como DocuSign Insight o Luminance que permiten detectar cláusulas críticas o inconsistencias de forma veloz y podrían reducir el margen de error humano. En el ámbito de Compliance, la IA puede monitorear en tiempo real los cambios regulatorios locales e internacionales. Algunas herramientas como Thomson Reuters Regulatory Intelligence y Alegra Compliance -esta última, más accesible y elegida por pymes latinoamericanas– ofrecen sistemas de alertas sobre modificaciones en normativas de cumplimiento relevantes y generan informes automatizados. En un escalón superior, la IA generativa brinda asistencia jurídica en el diseño de documentos. Empresas y estudios jurídicos se valen de software para redactar drafts de contratos estandarizados o actas societarias, con ejemplos como Ironclad y LegalOn, motores de revisión contractual con alertas semánticas y sugerencias contextuales. En el rubro financiero, Santander y PwC implementaron procesos de due diligence semiautomatizados con IA para escaneo masivo de documentos societarios y financieros en auditorías, reduciendo de semanas a horas la validación de riesgos legales. Eso dicho, existen zonas grises y peligros comunes en el uso de IA sin control humano. Delegar decisiones jurídicas en algoritmos sin validación humana directa puede violar principios básicos del derecho a la defensa y del debido proceso. En la UE, el Reglamento 2022/2065 prohíbe decisiones legales automatizadas sin revisión humana cuando afectan derechos fundamentales. En materia de privacidad y datos personales, entrenar IA con documentos internos podría vulnerar la Ley 25.326 de Protección de Datos Personales o el GDPR europeo, si no se anonimiza correctamente la información o no se cuenta con bases legales fidedignas. La Agencia de Acceso a la Información Pública alertó sobre este punto en sus guías de 2023. Un aspecto especialmente crítico es la tendencia a confiar ciegamente en IA generativa. ChatGPT puede producir respuestas plausibles pero incorrectas, y esto resulta sorpresivamente común en materia jurídica. En 2023, un abogado en EE.UU. fue sancionado por citar fallos inexistentes generados por IA. En efecto, la American Bar Association recomendó explícitamente evitar su uso sin control profesional. Al mismo tiempo, si la IA fue entrenada con datos sesgados, perpetuará prácticas discriminatorias. En Argentina, el Informe de la Defensoría del Pueblo de la Nación sobre IA y discriminación (2022) advierte sobre el uso de algoritmos opacos en procesos de selección, scoring crediticio o análisis de antecedentes. Entonces, ¿conviene adoptar la IA en el ámbito legal? Sí, aunque con casco y algunas prevenciones de manual. Como principio general, un software que usa algoritmos puede resultar ideal para automatizar tareas repetitivas, pero no para resolver por sí mismo cuestiones jurídicas sustanciales. Los resultados deben ser validados con criterio profesional humano. En los contratos con proveedores de IA, se debe chequear que ofrezcan transparencia algorítmica, posibilidad de auditoría y cláusulas de responsabilidad. Para resguardar datos personales (especialmente si se recolectan o procesan datos sensibles) se deben exigir entornos seguros y evitar plataformas públicas. Una buena práctica es implementar un protocolo interno de IA con lineamientos claros sobre uso aceptable, revisión legal y monitoreo. Argentina aún carece de legislación específica en IA. El Convenio 108+ del Consejo de Europa, ratificado por nuestro país en 2019, impone estándares exigentes en materia de protección de datos, que pueden leerse como especialmente relevantes cuando una IA accede a bases de datos personales o sensibles. La mejor promesa que puede ofrecernos la IA no es reemplazar el rol del abogado, sino darnos el gran poder de usar nuestro tiempo donde realmente importa. Los algoritmos redactan, los modelos analizan, y los robots aprenden. El verdadero diferencial es saber qué IA conviene usar, en qué contexto, con qué límites y con qué respaldo legal. Inteligencia Artificial jurídica sí, pero como copiloto; nunca en piloto automático. (*) Abogado LLM (Master of Laws), Director de Carrera UCC

    Ver noticia original

    También te puede interesar

  • Examedia © 2024

    Desarrollado por