• 4/12/2025
ALERTA

Anulan una sentencia por el uso indebido de Inteligencia Artificial por parte del juez

En el fallo se incorporó por error una frase que evidenciaba el uso de un asistente de Inteligencia Artificial (IA) que afectaba al enjuiciado
16/10/2025 - 09:52hs
inteligencia artificial

La Cámara Penal de Esquel resolvió anular de oficio una sentencia por el juez penal Carlos Rogelio Richeri, que había condenado a un hombre a dos años y seis meses de prisión de cumplimiento efectivo. La decisión se tomó tras constatar que en el fallo se incorporó por error una frase que evidenciaba el uso de un asistente de Inteligencia Artificial (IA) generativa para redactar parte de la resolución. Como consecuencia, el juicio deberá repetirse ante otro magistrado.

El tribunal, integrado por los jueces Carina Estefanía, Martín Zacchino y Hernán Dal Verme, dispuso remitir las actuaciones al Superior Tribunal de Justicia (STJ) de Chubut. El objetivo es que este organismo, que ejerce la superintendencia sobre la actividad jurisdiccional del juez Richeri, investigue el alcance de las consecuencias derivadas del uso inadecuado de la IA. La Cámara destacó que esta situación motivó la nulidad de la sentencia y del juicio previo, con implicancias para los justiciables, la ciudadanía y el propio Estado, responsable de garantizar el acceso a la justicia y la tutela judicial efectiva.

La evidencia más clara del uso del asistente digital fue la inclusión en la sentencia de una frase que formaba parte de una conversación con la herramienta de IA: "Aquí tienes el punto IV reeditado, sin citas y listo para copiar y pegar."

Para los jueces de la Cámara, este tipo de indicio deja una "brecha demasiado amplia" respecto de cuánto del texto puede atribuirse al sistema de IA generativa y cuánto a la redacción propia del magistrado. Esa incertidumbre, afirmaron, vulnera la prohibición de delegar decisiones judiciales en sistemas automáticos, lo que podría afectar el principio de juez natural.

El tribunal consideró que el error reflejaba una falta de control y supervisión humana en la redacción del fallo, ya que el juez suscribió una sentencia que contenía una cita directa del asistente digital. Además, la ausencia de constancia formal sobre el uso de la IA y sobre el contenido solicitado impidió verificar la trazabilidad del razonamiento judicial, lo que, según los camaristas, podría equipararse a una decisión carente de fundamentación suficiente.

Por estos motivos, la Cámara Penal ordenó enviar el expediente al Superior Tribunal de Justicia de Chubut para que determine el alcance de la falta ética y las responsabilidades que pudieran corresponder.

Finalmente, los jueces advirtieron que el magistrado también podría haber incumplido los recaudos de confidencialidad establecidos por el Acuerdo Plenario N.º 5435 del STJ, ya que el texto procesado por el asistente incluía nombres de las partes, testigos y peritos vinculados a la causa.

El avance de la IA en la justicia y los primeros límites judiciales

El caso de Esquel se enmarca en un contexto más amplio: el creciente uso de herramientas de Inteligencia Artificial en el ámbito judicial y las advertencias de distintos tribunales sobre su empleo sin supervisión.

En las últimas semanas, jueces de distintas provincias comenzaron a alertar a los colegios de abogados sobre los riesgos de utilizar IA generativa sin control humano, luego de detectar errores graves en escritos judiciales elaborados con ayuda de estos sistemas.

Fallos inexistentes y advertencias en Río Negro

Uno de los episodios más recientes ocurrió en General Roca, provincia de Río Negro, donde la Cámara Civil detectó la cita de 26 fallos inexistentes en recursos judiciales presentados por ambas partes en un juicio entre un comprador de un automóvil y una empresa automotriz.

Tras una investigación en la Biblioteca del Poder Judicial y en los registros del Superior Tribunal de Justicia provincial, se comprobó que ninguno de los precedentes mencionados existía. Los jueces concluyeron que los abogados probablemente habían utilizado IA generativa, aunque no lo admitieron expresamente.

En su resolución, los magistrados advirtieron que los resultados de estos sistemas deben ser "indefectiblemente cotejados", ya que pueden incluir las denominadas "alucinaciones", es decir, fuentes inventadas que aparentan ser reales. Aunque no impusieron sanciones, realizaron un "severo llamado de atención" a los profesionales y ordenaron notificar al Colegio de Abogados de General Roca para promover el uso responsable de estas herramientas.

Otro antecedente en la Cámara Civil de Morón

Un caso similar se produjo en la Cámara Civil de Morón (Buenos Aires), donde los jueces declararon "desierto" un recurso de apelación al comprobar que incluía jurisprudencia inexistente.

El abogado había basado sus argumentos en un supuesto expediente titulado "Barrios, Rubén Darío c/ Acuña, Gustavo Gabriel s/ Daños y perjuicios", que en realidad nunca existió. El tribunal verificó que se trataba de una confusión con otro fallo conocido como "Barrios, Héctor Francisco y otra c/ Lascano, Sandra Beatriz", efectivamente dictado por esa Cámara.

Si bien no se aplicaron sanciones formales, los jueces subrayaron que el uso inadecuado de la IA genera riesgos éticos y procesales y recordaron que los abogados deben verificar la información y las fuentes citadas antes de presentarlas ante un tribunal.

"Sí a la IA, pero con control humano"

Tanto en los casos de Esquel, General Roca y Morón, los tribunales coincidieron en un mismo mensaje: la Inteligencia Artificial puede ser una herramienta útil para mejorar la eficiencia del trabajo jurídico, pero su utilización debe estar sujeta a supervisión humana, transparencia y responsabilidad profesional.

El primer fallo que abordó este tema en Argentina fue dictado en agosto de 2025 por la Sala II de la Cámara de Apelaciones en lo Civil y Comercial de Rosario, donde se enfatizó que la IA puede ser un complemento valioso, pero nunca un sustituto del criterio humano ni del control ético y técnico que requiere la administración de justicia.

En ese sentido, las recientes resoluciones judiciales marcan el inicio de un debate necesario sobre los límites del uso de la inteligencia artificial en la práctica jurídica, y sobre la importancia de mantener el control humano como principio rector del debido proceso y la transparencia judicial.

Temas relacionados