Contacto

×
  • +54 343 4178845

  • bcuadra@examedia.com.ar

  • Entre Ríos, Argentina

  • Abogado en la mira por usar IA con citas falsas en un juicio

    » Comercio y Justicia

    Fecha: 25/08/2025 13:06

    Un fallo de la Cámara de Rosario pone en evidencia el riesgo de recurrir a inteligencia artificial sin verificar la veracidad de las citas legales, comprometiendo la ética profesional del letrado El caso de un abogado que utilizó citas jurisprudenciales generadas por IA, sin verificar su autenticidad, ha generado un importante pronunciamiento judicial que podría sentar un precedente en la práctica profesional del derecho. El fallo, emitido por la Cámara de Apelación en lo Civil y Comercial de Rosario en el marco de la causa GCA y otros c/ MFD y otros s/ daños y perjuicios, se centra en el uso indebido de herramientas de inteligencia artificial por parte del abogado de los demandantes, quien incluyó citas jurisprudenciales inexistentes en su escrito sin haberlas corroborado. El caso tiene su origen en un siniestro vial que derivó en un acuerdo transaccional entre los actores y una aseguradora, comprometiéndose esta última a pagar $2.500.000 en un plazo de 90 días. Sin embargo, ante el incumplimiento del pago por parte de la aseguradora, los demandantes decidieron continuar con la demanda original, momento en el cual el juez Oscar Puccinelli advirtió la presencia de citas jurisprudenciales que no pudieron ser localizadas pese a una búsqueda exhaustiva. El uso de IA: un riesgo sin control Al ser consultado, el abogado aclaró que había utilizado un sistema de inteligencia artificial generativa para obtener las citas y que había volcado los resultados obtenidos de buena fe, sin verificar su veracidad. El magistrado destacó que, aunque el letrado actuó de buena fe, su actitud compromete la responsabilidad profesional, tanto ante el tribunal como, especialmente, respecto de su cliente. “La utilización de un sistema de IA para la búsqueda de jurisprudencia sin cotejar las fuentes compromete la ética profesional. No puede haber consentimiento válido que releve al abogado de la obligación de verificar las citas que presenta ante el tribunal”, señaló el juez. El fallo, que subraya la importancia de la “probidad” en la ética profesional, hace un llamado de atención a la comunidad jurídica. En su resolución, el tribunal citó las Normas de Ética Profesional del Abogado del Colegio de Abogados de Rosario, destacando que, además de la corrección pecuniaria, un abogado debe actuar con lealtad, veracidad y buena fe, evitando presentar citas “inexactas, incompletas o contrarias a la verdad”. Las “alucinaciones”: un riesgo conocido El magistrado también recordó que los sistemas de IA generativa, como los chatbots, existen desde hace más de tres años y que sus términos y condiciones advierten explícitamente sobre la naturaleza experimental de estos sistemas. En muchos casos, estos resultados pueden incluir lo que se denomina “alucinaciones“, es decir, información errónea o inventada que, en este caso, fue presentada como jurisprudencia válida. “Es ampliamente conocida la circunstancia de que, por esa misma razón, los resultados que ofrecen estos sistemas incluyen ‘alucinaciones’. En el caso presente, aparecieron fuentes completamente inventadas“, explicó el juez. Este tipo de errores no es un fenómeno aislado. En otros países, ya se ha sancionado a abogados que incorporaron citas inexistentes proporcionadas por chatbots en escritos judiciales. Mientras los sistemas de IA no se perfeccionen para eliminar estas “alucinaciones”, el riesgo de depender de ellos sin realizar un control exhaustivo de las fuentes sigue siendo elevado. Un llamado de atención El tribunal resolvió rechazar los recursos interpuestos por la parte demandante, con costas a su promovente, pero no sin antes hacer un llamado de atención al letrado involucrado. El juez señaló que, aunque no se impondrá una sanción, es crucial prevenir que este tipo de situaciones se generalicen en el fuero. En ese sentido, el tribunal ordenó informar al Colegio de Abogados de Rosario sobre lo sucedido, con el fin de que la institución tome medidas y difunda entre los profesionales los riesgos de utilizar herramientas de IA sin comprobar los resultados que generan, especialmente cuando se trata de documentos que se presentan ante los tribunales. “La utilización de estos sistemas sin verificar sus resultados puede poner en riesgo la integridad del proceso judicial y comprometer la confianza en la justicia”, concluyó el fallo.

    Ver noticia original

    También te puede interesar

  • Examedia © 2024

    Desarrollado por