23/10/2025 13:02
23/10/2025 13:01
23/10/2025 13:01
23/10/2025 13:00
23/10/2025 12:59
23/10/2025 12:59
23/10/2025 12:58
23/10/2025 12:58
23/10/2025 12:58
23/10/2025 12:58
Buenos Aires » Infobae
Fecha: 23/10/2025 08:53
En Esquel, se anuló un fallo judicial porque el magistrado utilizó ChatGPT para redactarlo (Imagen ilustrativa Infobae) El reciente caso que conmocionó al ámbito judicial argentino no pasó inadvertido. En Esquel, la Cámara Penal anuló una sentencia luego de constatar que el magistrado había utilizado ChatGPT para redactar parte de su decisión. No se trató de una mera asistencia técnica: el fallo contenía párrafos completos generados por el modelo de inteligencia artificial. El tribunal fue tajante: un juez no puede delegar la motivación de su sentencia en un sistema automatizado. Ese episodio marcó un límite visible. Por primera vez en Argentina, el uso de inteligencia artificial se convirtió en causal de nulidad judicial. Pero, al mismo tiempo, dejó al descubierto una amenaza más profunda, menos perceptible y mucho más inquietante: la influencia silenciosa de los algoritmos sobre el razonamiento judicial. De la copia al pensamiento inducido El episodio de Esquel expuso la versión más burda del problema: el copiar y pegar. Pero la amenaza real se esconde en otro nivel, mucho más sofisticado: la influencia invisible. Hoy, muchos magistrados se apoyan en sistemas que seleccionan jurisprudencia, resumen expedientes o sugieren redacciones. A simple vista, parecen aliados discretos del trabajo judicial. Pero tras esa apariencia de neutralidad, filtran lo que se ve, ordenan lo que se piensa y delinean el marco desde el cual el juez comienza a razonar. Esa es la cesión silenciosa del poder judicial a los algoritmos: el desplazamiento progresivo del juicio humano por estructuras estadísticas automatizadas. Una transformación que no elimina la figura del juez, pero redefine la manera en que construye sus fundamentos. ¿Cómo pedir transparencia a una caja negra? La Cámara en lo Penal de la Circunscripción Judicial de Esquel (Chubut) pidió algo elemental: trazabilidad. Saber qué sistema se utilizó, qué datos se ingresaron y bajo qué control humano. Pero en el ámbito de la inteligencia artificial, esa exigencia enfrenta un límite estructural: la opacidad inherente de los modelos de aprendizaje profundo. Los grandes sistemas, como ChatGPT, Gemini, Copilot o Claude, funcionan sobre redes neuronales con miles de millones de parámetros, donde las relaciones entre entrada y salida no son programadas, sino emergentes. Esa naturaleza hace que los resultados sean predecibles, pero no explicables, lo que en la literatura científica se conoce como una caja negra algorítmica. Mientras el derecho procesal exige que toda sentencia sea motivada, verificable y reconstruible, la inteligencia artificial produce respuestas probabilísticas sin explicación causal explícita, generando una tensión estructural entre la transparencia jurídica y la opacidad matemática. Una red neuronal no razona: procesa correlaciones y optimiza probabilidades. Lo que en el lenguaje técnico se llama predicción es, en esencia, un cálculo, no una inferencia. El razonamiento judicial, en cambio, exige algo que ninguna arquitectura estadística puede ofrecer: la posibilidad de explicar cómo se llegó a una conclusión. Cuando esa trazabilidad se pierde, el fallo deja de ser una construcción racional para convertirse en un producto algorítmico. Por eso, un razonamiento que no puede ser reconstruido introduce una zona de opacidad incompatible con la transparencia judicial. La motivación, núcleo del Estado de Derecho, no puede delegarse en un algoritmo que produce correlaciones, no argumentos. La caja negra no se audita: puede predecir, pero no puede justificar. El dilema ético y la independencia cognitiva El fallo de Esquel no solo anuló una sentencia: inauguró una discusión global sobre los límites de la automatización judicial. Los camaristas citaron el Acuerdo Plenario 5435/2025 del Superior Tribunal de Justicia del Chubut, que aprobó las Directrices Éticas para el Uso de Inteligencia Artificial Generativa en el Poder Judicial. Allí se prohíbe delegar decisiones en sistemas automáticos y se exige transparencia, control humano y protección de datos sensibles. Sin embargo, el ideal de transparencia que esas directrices proclaman entra en contradicción con la naturaleza técnica de los sistemas que busca regular. La inteligencia artificial generativa se sostiene sobre modelos de aprendizaje profundo cuya lógica interna es, por definición, opaca: redes neuronales que aprenden por correlaciones y no por inferencias, produciendo resultados reproducibles pero imposibles de justificar en términos jurídicos. Así, mientras el derecho demanda motivación, trazabilidad y rendición de cuentas, la arquitectura técnica de estas herramientas ofrece opacidad estructural. Esa paradoja, pretender transparencia en un dispositivo concebido para operar en la oscuridad de sus propios cálculos, plantea el nuevo dilema del siglo judicial que comienza: cómo exigir explicabilidad a una caja negra que, al abrirse, dejaría de funcionar como tal. La independencia judicial ya no se amenaza con presiones políticas, sino con dependencia cognitiva. La IA no impone; persuade. Y la justicia corre el riesgo de convertirse en un ecosistema de obediencias invisibles. Quizá dentro de unos años no haya frases delatoras como “listo para copiar y pegar”. El juez ya no copiará: pensará dentro del algoritmo. Y cuando eso ocurra, la pregunta esencial no será si una inteligencia artificial puede juzgar, sino si el juez todavía puede dudar. Porque la duda, esa grieta luminosa del pensamiento humano, sigue siendo el último refugio de la justicia.
Ver noticia original