• 4/12/2025
ALERTA

La inteligencia artificial ya llegó a la Justicia argentina. ¿Cuál es su mayor riesgo?

Hay un reconocimiento paulatino de que la inteligencia artificial es una herramienta que llegó para quedarse y que de alguna manera se debe regular
25/11/2025 - 10:11hs
La inteligencia artificial ya llegó a la Justicia argentina. ¿Cuál es su mayor riesgo?

El sistema judicial argentino, caracterizado por su configuración federal que alberga 25 sistemas judiciales con realidades y recursos dispares, se encuentra en una coyuntura decisiva frente a la irrupción de la inteligencia artificial generativa (IA generativa). En un contexto donde la baja confianza social en la institución es un factor, esta tecnología se percibe como una herramienta clave para mejorar la eficiencia y la imagen de la justicia.

El proyecto "América Latina ante la encrucijada de la IA generativa y su adopción responsable en el ámbito judicial", impulsado por el Centro de Estudios en Tecnología y Sociedad (CETyS) de la Universidad de San Andrés, realizó un diagnóstico del panorama argentino, identificando no solo oportunidades, sino también tensiones, fortalezas, desafíos y oportunidades cruciales para su implementación responsable.

El informe, liderado por la investigadora asociada al CETyS, María Pilar Llorens, y complementado por la visión de la codirectora del CETyS, Carolina Aguerre, expone la urgencia de establecer marcos de acción claros y políticas institucionales definidas para evitar un uso fragmentado o reactivo de esta tecnología.

Las tres áreas críticas de tensión

El informe sobre la Argentina destaca tres áreas principales de tensión que demandan una atención inmediata para la adopción responsable de la IA generativa en el Poder Judicial:

  1. Gestión y gobernanza de datos
  2. Mecanismos de transparencia y responsabilidad
  3. La ciberseguridad

Llorens subrayó que las tres áreas son igual de importantes y se encuentran interconectadas, siendo interdependientes para que la adopción sea responsable. "No hay un área más crítica que otra (...): sin una buena gestión y gobernanza de los datos, sin ciberseguridad y sin mecanismos de transparencia y responsabilidad es impensable que la adopción e implementación de la IA generativa sea responsable", dijo a iProfesional.

Sin embargo, en la práctica, la investigadora sugirió que comenzar por establecer los mecanismos de transparencia y la responsabilidad de los operadores judiciales podría ser el paso más sencillo y rápido. Esto podría cimentarse en los propios marcos normativos que ya regulan la actividad de los operadores, sirviendo de base para establecer responsabilidades funcionales por el mal uso de estas herramientas.

La preocupación por la gobernanza de datos es la que concentra la mayor atención de los actores judiciales. Esto se debe a los riesgos de subir datos sensibles a empresas privadas —muchas de las cuales carecen de sedes locales y están sujetas a otras legislaciones— y a la falta de claridad sobre con qué datos ha sido entrenado el modelo, lo que impacta en la aplicabilidad de las respuestas a la normativa nacional.

La ciberseguridad, en cambio, es un aspecto notablemente ausente en la discusión, siendo mencionada de forma tangencial. Llorens describió el problema como estructural y no solo asociado a la IA generativa: "La Argentina carece de una política integral de ciberseguridad. No hay marcos normativos específicos sobre esta materia".

Además, la gestión actual está en manos de la Secretaría de Inteligencia, no de un organismo independiente, y los marcos regulatorios de datos personales están desactualizados. La urgencia pasa por la capacitación y el establecimiento de protocolos de buenas prácticas dentro del poder judicial.

Riesgos de una adopción fragmentada: El uso indiscriminado

El riesgo más grande de no establecer roles y políticas claras de manera institucional y orgánica es el uso indiscriminado de la IA generativa por parte de los operadores judiciales.

El estudio revela que en la mayoría de las jurisdicciones judiciales argentinas prevalece una política de "tolerancia", llevando a que la mayoría de los casos de uso sean iniciativas personales e informales de los operadores para tareas de procesamiento de datos. Llorens destacó que este uso sin la debida conformación de equipos de toma de decisiones que incluyan jueces, técnicos y sociedad civil, ya tiene consecuencias:

"Creo que el mayor riesgo es su uso indiscriminado. Esto ya lo estamos viendo, por ejemplo, la redacción de sentencias es una de las tareas en la que existe un consenso generalizado en que la IA generativa no debería utilizarse. No obstante, recientemente la Cámara Penal de (la ciudad chubutense de) Esquel anuló una sentencia por el uso indebido de IA generativa en su redacción", dijo Llorens.

Este caso es aún más preocupante porque ocurrió a pesar de la existencia de directivas previas del Superior Tribunal de Justicia (STJ) de Chubut sobre el uso ético. La preocupación de la investigadora se centra en que la falta de análisis crítico llevará a un uso "cada vez más constante y poco o nada reflexivo por parte de los operadores judiciales".

Y agregó: "No creo que estemos listos para aceptar que las decisiones judiciales sean adoptadas por LLM", sigla en inglés por modelo de lenguaje grande, un sistema de inteligencia artificial que puede comprender y generar lenguaje humano

Errores comunes de comprensión

Una de las áreas clave de capacitación para jueces y empleados judiciales es desmitificar la herramienta. El principal error, según Llorens, es no entender cómo funcionan estos modelos: "Que la herramienta no piensa por sí misma, que no es inteligente. Creo que el primer error es no terminar de entender cómo funcionan estos modelos", afirmó.

La experta recordó que se trata de modelos predictivos que solo buscan identificar las palabras más usuales en relación con las instrucciones dadas. El foco de la capacitación debe estar en los alcances, beneficios y riesgos asociados.

El camino hacia la adopción responsable de la IA en la Justicia

El informe del CETyS establece un conjunto de cinco recomendaciones clave para que Argentina avance hacia una adopción responsable:

1. Evaluación de las necesidades locales (El primer paso)

El primer desafío es que los poderes judiciales no saben para qué quieren usar estas herramientas. Llorens enfatizó que no existe un mapeo de las necesidades y problemas que la IA debería solucionar. El paso inicial, y no negociable, es realizar este mapeo para identificar las necesidades reales, los recursos disponibles y, consecuentemente, qué herramientas de IA o IA Generativa son adecuadas.

Esta evaluación debe ser imparcial y efectiva, incluyendo la participación de operadores judiciales, expertos técnicos y sociedad civil. Una consulta pública que garantice el aporte de todas las partes interesadas es el mecanismo sugerido para asegurar esta retroalimentación.

2. Empleo de herramientas preexistentes

El estudio sugiere priorizar la automatización de tareas con herramientas preexistentes. La razón es que muchos casos de uso podrían resolverse con soluciones más sencillas, menos complejas y costosas. Además, gran parte de los poderes judiciales ya poseen este tipo de herramientas, que pueden ser adaptadas o escaladas.

Un ejemplo claro es la anonimización de documentos judiciales. Si bien la IA generativa podría llevar a cabo esta tarea, muchos juzgados ya utilizan herramientas de automatización o de IA no generativa para realizarla.

3. Definición de roles

La decisión sobre la implementación debe ser institucional y orgánica, con roles y responsabilidades claramente definidos. La forma de lograrlo es conformar equipos de toma de decisiones tecnológicas que incluyan a jueces, personal técnico y representantes de la sociedad civil.

De cara a una implementación inmediata, Llorens destacó tres pasos esenciales y no negociables:

  1. Conformación de un grupo de decisores tecnológicos.
  2. Definición clara de los casos de uso y las reglas aplicables, distinguiendo lo aceptable (por ejemplo, resúmenes) de lo inaceptable (por ejemplo, redacción de sentencias).
  3. Definición clara de roles y responsabilidades, identificando quién puede usar la tecnología, en qué capacidad y con qué consecuencias.

4. Capacitación

Se requieren instancias de capacitación para los operadores judiciales. Esta formación debe enfocarse en los alcances, beneficios y riesgos de la IA generativa. La capacitación es clave para contrarrestar el uso indiscriminado y acrítico.

5. Favorecer la sinergia con otras entidades del ecosistema judicial

La adopción responsable es imposible sin una mirada interdisciplinaria. La sinergia con los múltiples actores del ecosistema judicial es crucial para mitigar los riesgos éticos o de sesgo en los algoritmos.

Llorens advirtió que "lo que puede ser aceptable para algunos, puede no serlo para otros. La búsqueda de ese equilibrio, de los límites, de comprender qué estamos dispuestos a aceptar como sociedad depende de los diálogos entre los distintos actores del ecosistema judicial".

Cada parte aporta para comprender los alcances y límites de estas herramientas. Además, una mayor comprensión de la IA generativa incrementará el interés y apoyo para impulsar los cambios institucionales necesarios.

La Argentina en el contexto regional

Al considerar el panorama regional de América latina, el informe del CETyS concluye que Brasil presenta la mayor madurez institucional y de desarrollo tecnológico de aplicaciones basadas en IA. Brasil adoptó políticas y lineamientos que reconocen los beneficios de la IA, pero también exponen los riesgos y los usos prohibidos.

En contraste, Llorens señaló que no se puede hablar de un proyecto nacional para la adopción responsable de la IA generativa en la Argentina. Esta situación se explica, en parte, por la configuración jurídica del país, donde las provincias retienen la potestad de dictar los códigos procesales. Tampoco existe un tribunal federal o constitucional que lidere estas transformaciones, como sí sucede en Colombia o Brasil.

Si bien hay interés en la introducción de herramientas tecnológicas para mejorar la gestión de procesos, Llorens dijo que no está segura de que esto se traduzca en una voluntad política de implementar la IA Generativa. Sin embargo, señaló que hay un reconocimiento paulatino de que son herramientas que "llegaron para quedarse y que de alguna manera se deben regular".

Aguerre resaltó ante iProfesional un punto crucial en el debate sobre la regulación: "Una adopción responsable no constituye un freno a la eficiencia y a la eficacia de los procesos judiciales". La codirectora del CETyS confrontó el discurso que asocia regular y generar marcos con "frenar la innovación y la eficiencia" de los procesos judiciales, y sugirió que la madurez de un país como Brasil demuestra lo contrario.

Temas relacionados