Contacto

×
  • +54 343 4178845

  • bcuadra@examedia.com.ar

  • Entre Ríos, Argentina

  • Validan el fallo del juez de Chubut que quedó expuesto por usar IA: Aquí tienes el punto IV reeditado, sin citas y listo para copiar y pegar

    » Clarin

    Fecha: 16/03/2026 16:24

    El Superior Tribunal de Justicia de Chubut revocó la decisión que había anulado una condena penal porque el juez utilizó inteligencia artificial para redactar parte del fallo. El máximo tribunal provincial entendió que el uso de estas herramientas no invalida por sí mismo una sentencia si no se demuestra un perjuicio concreto en la decisión. El caso había generado un fuerte debate en el mundo judicial porque la Cámara en lo Penal de Esquel había detectado en el texto del fallo una frase típica de los asistentes de escritura automática. A partir de ese hallazgo, el tribunal declaró de oficio la nulidad de toda la sentencia y ordenó realizar un nuevo juicio. La resolución fue considerada una de las primeras en el país en invalidar una condena penal por el uso de inteligencia artificial en la redacción de una resolución judicial, lo que abrió una discusión sobre los límites del uso de estas herramientas en tribunales. Ahora, el máximo tribunal provincial fijó un criterio distinto: sostuvo que el proceso penal no controla los métodos que utiliza un juez para elaborar su razonamiento, sino el contenido final de la sentencia y la solidez de sus fundamentos. La frase que lo delató, anulación y marcha atrás La causa se originó en noviembre de 2023 en Esquel, cuando un hombre fue acusado de robo simple. El juez penal Carlos Rogelio Richeri lo condenó en 2024 a dos años y seis meses de prisión de cumplimiento efectivo. Cuando la defensa apeló la sentencia, la Cámara en lo Penal de Esquel revisó el fallo y encontró una frase llamativa en el texto: Aquí tienes el punto IV reeditado, sin citas y listo para copiar y pegar. Para los camaristas, esa línea era una señal clara de que el magistrado había utilizado una herramienta de inteligencia artificial generativa para redactar una parte clave del fallo, en particular el capítulo donde se analizaban nulidades planteadas por la defensa sobre dos pruebas centrales del caso. Con ese argumento, el tribunal declaró de oficio la nulidad de la sentencia y ordenó realizar un nuevo juicio con otro juez. El Superior Tribunal de Justicia de Chubut tomó ahora la posición contraria. Al resolver una queja presentada por las fiscales del caso, el máximo tribunal provincial revocó la nulidad y estableció un criterio sobre el uso de inteligencia artificial en la elaboración de sentencias. Según el fallo, el sistema procesal penal no controla cómo piensa un juez ni qué herramientas utiliza para elaborar su razonamiento, sino lo que finalmente queda plasmado en la sentencia. La deliberación judicial, incluyendo la consulta de doctrina o el uso de herramientas tecnológicas, forma parte del proceso intelectual privado del magistrado. Para que una sentencia sea anulada, señalaron los ministros, debe demostrarse un perjuicio concreto, como una afectación al derecho de defensa o una fundamentación defectuosa. En este caso, consideraron que la presencia de una frase asociada a una herramienta de inteligencia artificial no prueba por sí sola que el juez haya delegado su función de decidir. El tribunal también remarcó que la inteligencia artificial puede utilizarse como una herramienta de apoyo, pero nunca como una fuente autónoma de decisión. La responsabilidad por el contenido del fallo, subrayó, recae siempre en el magistrado que lo firma. Qué pasa ahora con la causa Con esta resolución, el Superior Tribunal devolvió el expediente a la Cámara en lo Penal de Esquel para que vuelva a analizar la apelación de la defensa, pero con una integración distinta a la que había dictado la nulidad. El tribunal deberá revisar ahora los planteos originales del recurso, que cuestionaban la valoración de las pruebas del caso, entre ellas imágenes de cámaras de seguridad y una pericia criminalística, y la pena impuesta. El fallo del Superior, firmado el 13 de marzo por cinco de sus seis ministros, estableció además un criterio vinculante para ese tribunal en el tratamiento del caso. El uso de herramientas de IA generativa es un caso de estudio global, en tanto muchos trabajos de oficina corren peligro para muchos especialistas. Los errores en el derecho tampoco son nuevos: a nivel global, el primer caso y más conocido de todos tuvo su sentencia el 22 de junio de 2023, en Estados Unidos, cuando un letrado presentó una demanda contra la aerolínea colombiana Avianca y citó jurisprudencia que no existía, precisamente por usar ChatGPT. Newsletter Clarín

    Ver noticia original

    También te puede interesar

  • Examedia © 2024

    Desarrollado por