Inteligencia Artificial en la Justicia: descifrando códigos

Nuestro país ensaya una hoja de ruta propia para incorporar Inteligencia Artificial en el sistema judicial. Con experiencias piloto, desarrollos locales, una mirada federal y un enfoque colaborativo entre poderes e instituciones, apuesta por una innovación prudente que combine tecnología, derechos fundamentales y supervisión humana. El objetivo no es simple: abrir un capítulo donde la justicia se piense mejor, se haga más accesible y no pierda lo esencial en el intento.

Como no podía ser de otra manera, este informe periodístico -además de haber sido redactado por quien lo firma e incluir referencias producto de una investigación propia- cuenta con la invalorable colaboración de una herramienta que llegó para facilitarnos la vida: la Inteligencia Artificial (IA).

Aunque todavía genera recelo en algunos sectores de la sociedad, su uso se expande con rapidez. Y como suele ocurrir, la masificación ayuda a disipar temores y resistencias. Porque una vez que se la incorpora, se entiende por qué es tan revolucionaria: acorta tiempos de producción, resuelve en segundos tareas mecánicas que antes demandaban horas y navega en la inmensidad de internet para filtrar lo relevante de lo accesorio. Y eso es apenas una parte: su utilidad varía según cada profesión.

Claro que también hay quienes la perciben como una amenaza laboral, y no sin razón. La modernización tecnológica ha transformado los mercados de trabajo en todas las épocas, y esta vez no será la excepción. Estamos deslumbrados, sí, pero como bien sabemos, no todo lo que brilla es oro.

Puedo pedirle a ChatGPT o Gemini que me asista en la redacción de esta nota, pero no puede escribirla por mí. Cada periodista tiene su impronta, su enfoque, una forma particular de observar el mundo, un contexto, una profundidad de análisis, un conocimiento específico. Eso, precisamente, es lo que nos hace únicos.

Pero este informe no es para hablar de mí sino de cómo afecta la Inteligencia Artificial algo tan estructurado como el sistema de justicia. En Argentina, el avance de la IA, muestra un fenómeno en desarrollo: desde la mejora de tiempos procesales hasta el debate sobre los límites éticos de su uso en un ámbito donde lo que está en juego son derechos fundamentales.

Un cambio de paradigma

El desembarco de los grandes modelos de lenguaje (LLM), como ChatGPT, marca un giro cualitativo. No se trata ya de automatizar tareas rutinarias, sino de explorar capacidades como redactar resoluciones judiciales, sintetizar argumentos jurídicos y asistir en la interpretación de normas. Estos modelos, entrenados con miles de millones de palabras, ofrecen respuestas contextualmente relevantes y coherentes, lo que los convierte en asistentes valiosos pero también en fuentes potenciales de error si se los emplea sin supervisión humana.

Argentina se posiciona como pionera en América Latina. Desde 2017, con la implementación del sistema Prometea en la ciudad de Buenos Aires, el país ya exploraba automatizaciones en la gestión judicial. En los últimos años, se multiplicaron los programas piloto, los chatbots de asistencia al ciudadano y las guías de buenas prácticas.

Uno de los actores clave es el UBA-IALAB, laboratorio de innovación de la Facultad de Derecho de la Universidad de Buenos Aires (UBA) comandado por Juan Corvalán, que ha elaborado directrices para el uso responsable de IA en la justicia. 

Este centro, junto con la Junta Federal de Cortes (JuFeJus), coordinó un programa piloto multijurisdiccional en el que se evaluaron herramientas como ChatGPT y Gemini.

Los resultados fueron prometedores: en tareas complejas, como identificar agravios en un recurso de amparo, la IA redujo los tiempos de 25 minutos a apenas dos minutos y medio, manteniendo un 77% de eficiencia.

Pero el éxito no fue automático: los resultados dependieron en gran medida de la habilidad del usuario para formular pedidos precisos (“prompts”), evaluar críticamente las respuestas y revisar la información. La supervisión humana fue clave y se subrayó como un principio ético ineludible.

Primer congreso nacional

Celebrado recientemente en Tucumán y organizado conjuntamente por la Asociación de la Magistratura y la Función Judicial de Tucumán (AMT) y la Federación Argentina de la Magistratura y la Función Judicial (FAM), el “Primer Congreso sobre Inteligencia Artificial en la Justicia” emerge como un hito fundamental. Este evento ha servido como catalizador para la difusión de conocimientos, el intercambio de experiencias y la reflexión crítica sobre el rol de la IA en el sistema judicial argentino.

Paralelamente al interés en las aplicaciones más amplias de la IA, existe una atención particular en herramientas específicas como los chatbots, diseñados para simplificar la interacción entre los ciudadanos y el sistema judicial, y para agilizar el acceso a información relevante.

La realización de este primer congreso, sumada a una multiplicidad de iniciativas de IA que se desarrollan en diversas jurisdicciones del país, no deben interpretarse como hechos aislados. Más bien, son indicadores de una fase de efervescencia y exploración activa en la justicia argentina respecto a la IA. Se evidencia un reconocimiento generalizado de su potencial transformador, aunque el grado de madurez en la implementación y la consolidación de estrategias varía considerablemente a lo largo del territorio. El propio congreso, al buscar difundir avances y fomentar la reflexión, y la coexistencia de programas piloto nacionales con desarrollos provinciales autónomos, sugieren que Argentina se encuentra en una curva de aprendizaje, experimentando y definiendo su propio camino en la adopción de estas tecnologías.

El congreso -del que Quórum fue media partner- abarcó un amplio espectro temático, reflejando la naturaleza multifacética de la IA y sus implicaciones para el sistema judicial. Las discusiones no se limitaron a las capacidades técnicas de la IA, sino que se adentraron profundamente en sus dimensiones éticas, regulatorias y sociales, evidenciando una madurez en el debate que superó el mero tecno-optimismo.

En ese marco, surgió también una preocupación clave: los sesgos. Porque la IA reproduce lo que aprende y si lo que aprende está atravesado por discriminaciones históricas, estas se replican. Por eso, fue especialmente valorado el reciente desarrollo conjunto entre el Ministerio de Ciencia, Tecnología e Innovación y la Universidad Nacional de José C. Paz: una herramienta que permite detectar sesgos de género en modelos de lenguaje generativo. Esta innovación argentina -única en su tipo en América Latina- no sólo evalúa la presencia de sesgos, sino que también los clasifica e informa con ejemplos concretos, promoviendo un uso más equitativo y ético de la tecnología.

Implementación a nivel provincial: un mosaico de innovación

El panorama de la inteligencia artificial en la justicia argentina se caracteriza por una notable federalización de la innovación. Las provincias no sólo están adoptando soluciones desarrolladas a nivel central, sino que, en muchos casos, impulsan sus propias herramientas y protocolos, adaptados a sus contextos, necesidades específicas y recursos disponibles. El portal justicia.ar, del Ministerio de Justicia, ofrece un mapeo de estas iniciativas, evidenciando una heterogeneidad que es fuente de riqueza, pero también de desafíos.

Casos emblemáticos:

Prometea (CABA y Chaco): Considerado el primer sistema judicial predictivo de Hispanoamérica, Prometea fue desarrollado por el Ministerio Público Fiscal de la Ciudad Autónoma de Buenos Aires en colaboración con el IALAB. En CABA se aplica para preparar dictámenes judiciales. Su implementación se extendió a Chaco, donde se adaptó para gestionar procesos ejecutivos en el Juzgado de Procesos Ejecutivos, Concursos y Quiebras de la Circunscripción 2. Allí, ha logrado reducir drásticamente los tiempos de elaboración de sentencias -de horas a minutos- mediante la automatización basada en árboles de decisión.

MIA (Motor de Inteligencia Artificial) – CABA: En el fuero Contencioso Administrativo y Tributario se está probando este motor para la tramitación de ejecuciones fiscales.

Automatización en Río Negro: Esta provincia muestra un dinamismo particular. Además de utilizar IA generativa para transcribir audiencias (presentado en el congreso), el Superior Tribunal desarrolló una herramienta para gestionar juicios de ejecución fiscal. Integra la API de OpenAI (modelo GPT-3.5 Turbo) con su sistema PUMA, lo que permite emitir sentencias en tan solo una hora desde la demanda, con un costo mensual aproximado de 50 dólares. Además, Río Negro fue pionera en aprobar un Protocolo de Buenas Prácticas para el uso de IAGen mediante la Acordada 15/2024.

Córdoba (Jurisemia): Cuenta con un asistente inteligente integrado en los sistemas de gestión de diversos fueros (Ejecución Fiscal, Cobros Particulares, Violencia Familiar y de Género), capaz de resumir textos, generar prompts personalizados y funcionar como buscador avanzado de jurisprudencia.

Mendoza (Concilia): En el fuero laboral se implementó esta herramienta para facilitar acuerdos en expedientes ordinarios de forma simple, segura y ágil.

Chaco (más allá de Prometea): También explora IA de código abierto (como Gemma, LLaMA3 y Mistral) en Juzgados de Paz para gestionar ejecuciones de multas y patentes. Apuesta por tecnologías open-source, que ofrecen mayor flexibilidad y menores costos a largo plazo.

Otras iniciativas provinciales:

Buenos Aires (provincia): Implementó un mecanismo tecnológico para automatizar el primer despacho en apremios judiciales.

Chubut: Todas las oficinas judiciales cuentan con una herramienta basada en Whisper (OpenAI) para transcribir audiencias penales.

Formosa, Salta y Santa Cruz: Adheridas al Programa Piloto de IAG impulsado por JuFeJus.

Misiones: Se realizan capacitaciones y relevamientos sobre el uso de ChatGPT y otras IA en la gestión judicial.

San Juan: La Corte de Justicia aprobó un Protocolo de uso aceptable de la IAG.

San Luis: Avanza en la implementación de un Programa de IA en el Poder Judicial.

Santa Fe: Incorpora herramientas de IAG para optimizar labores judiciales y administrativas.

Santiago del Estero: Firmó acuerdos para implementar IA en procesos judiciales vinculados a violencia por motivos de género.

Promesas y riesgos

La IA puede hacer más eficiente y accesible la justicia, pero también plantea dilemas importantes. Uno de los más conocidos es el de las alucinaciones: respuestas verosímiles pero falsas. En Estados Unidos, se documentaron casos donde abogados presentaron citas inexistentes generadas por IA. 

En Argentina, un error similar ocurrió en el caso “Mata vs. Avianca Airlines., Inc.”, lo que motivó advertencias explícitas en las guías de uso. Los representantes de una de las partes habían citado una serie de precedentes judiciales inexistentes para sostener un planteo, derivando en que fueran requeridos por la Justicia para dar explicaciones al respecto.

En esa oportunidad, los abogados citados admitieron ante el tribunal que se trataba de un error por el mal uso de ChatGPT por parte de uno de ellos. Se trata un profesional con una larga trayectoria, que se basó enteramente y confió en el contenido generado por el sistema, sin hacer una verificación posterior de aquel resultado.

También preocupan la privacidad de los datos, el sesgo algorítmico -que puede reproducir prejuicios sociales y discriminaciones históricas- y el llamado sesgo de automatización, que surge cuando el usuario deposita una confianza excesiva en las respuestas generadas por la máquina. Por eso, las directrices argentinas insisten: la IA no debe reemplazar el juicio humano, y las decisiones judiciales no pueden delegarse a sistemas automáticos.

En este contexto, adquiere especial relevancia una innovación desarrollada recientemente en nuestro país: OlivIA, una herramienta integrada en ChatGPT que permite detectar sesgos de género en los contenidos generados por inteligencia artificial. Diseñada por la abogada y comunicadora feminista Ana Correa, está pensada para ser utilizada en ámbitos como la comunicación, la justicia, la educación, la investigación o el diseño de políticas públicas. Su objetivo es claro: identificar estereotipos, desigualdades simbólicas y promover una mirada más equitativa. Para ello, fue entrenada con bibliografía especializada y bajo el método legal de la jurista feminista Katharine T. Bartlett, que invita a hacerse “la pregunta por las mujeres” en cada situación. OlivIA no emite juicios, pero formula preguntas clave, ofrece datos chequeables y amplía la perspectiva sin reproducir discriminaciones.

La iniciativa surgió de una experiencia concreta: Correa detectó respuestas estereotipadas en ChatGPT, como cuando recomendó muñecas para niñas y kits de ciencia para niños. Luego de entrenar al modelo con perspectiva de género, esa misma consulta derivó en sugerencias neutrales e inclusivas. Aunque OlivIA opera sobre una plataforma privada sin garantías plenas de transparencia en el manejo de datos personales, Correa eligió intervenir allí donde hay mayor alcance: más de 400 millones de usuarios activos semanales. Su advertencia es clara: la IA generativa puede ser una gran asistente, pero si no se corrige, tiende a replicar un mundo que ya quedó atrás. Herramientas como OlivIA buscan precisamente evitar que la tecnología retroceda un siglo en términos de igualdad, y contribuir a que el futuro también se piense con lentes violetas.

Esta perspectiva se alinea con el enfoque que viene adoptando Argentina: a medida que se integran herramientas de IA en el ámbito judicial, también crece la necesidad de marcos regulatorios claros y evaluaciones de impacto con enfoque de derechos. Algunas provincias, como Buenos Aires y Neuquén, ya han emitido sus propias guías, mientras que a nivel nacional el Ministerio de Justicia impulsa un marco integral. En paralelo, organismos internacionales como la UNESCO trabajan en conjunto con autoridades locales -como la Suprema Corte bonaerense- para fomentar el uso ético de la IA en la administración de justicia.

La estrategia argentina se orienta hacia un enfoque federal, colaborativo y adaptativo. El objetivo es encontrar un equilibrio entre habilitar la innovación y prevenir riesgos innecesarios. La idea de una regulación adaptativa, basada en la proporcionalidad del impacto, gana terreno: se trata de evitar reglas excesivamente rígidas que obstaculicen el desarrollo, sin renunciar a establecer límites claros, auditables y con una perspectiva de género como guía transversal.

Una justicia más humana, no menos

Paradójicamente, uno de los efectos más transformadores de la IA podría ser humanizar la justicia. Al liberar a jueces y funcionarios de tareas repetitivas, se permite enfocar los esfuerzos en el análisis sustantivo, la argumentación jurídica y la atención al ciudadano. El objetivo no es reemplazar personas por máquinas, sino potenciar lo mejor del trabajo humano con ayuda de la tecnología.

La postura argentina como adoptante temprano en un ámbito tan sensible como la justicia es notable. Por su naturaleza, el sistema judicial tiende a ser conservador, dada la incidencia directa sobre derechos y libertades. Sin embargo, múltiples iniciativas demuestran una voluntad sostenida de experimentar, evaluar e implementar herramientas de IA, incluyendo las de tipo generativo.

Esta experiencia aún en desarrollo ofrece una valiosa hoja de ruta para otros países de la región. Con iniciativas descentralizadas, colaboración entre academia y Poder Judicial, y un enfoque ético explícito, Argentina avanza con decisión, pero sin apurarse. No todo está resuelto, pero el camino de la innovación prudente parece, por ahora, el más sensato en un terreno donde derecho, tecnología y valores democráticos se cruzan en cada decisión.

Noticias relacionadas

Suscribite a nuestro newsletter

Para estar actualizado de las últimas noticias, informes especiales y recibir las ediciones digitales antes que nadie!

Últimas noticias