La responsabilidad profesional de los abogados frente al uso de la Inteligencia Artificial

Por Martín Casares*

La irrupción de la Inteligencia Artificial (IA) en la práctica jurídica plantea un desafío inédito para el ejercicio de la abogacía. Hasta hace pocos años, hablar de sistemas que redactan escritos judiciales, proponen estrategias procesales o sintetizan jurisprudencia sonaba a ciencia ficción. Hoy es una realidad que se expande de manera vertiginosa y que obliga a repensar las responsabilidades éticas y legales de quienes ejercemos la abogacía.

El debate no radica en la herramienta en sí, sino en cómo se la utiliza. Como sucedió con la incorporación de la informática en los años noventa o con el acceso masivo a Internet, la IA representa un cambio tecnológico disruptivo. Pero a diferencia de esos hitos, aquí no hablamos de un mero medio de consulta o de almacenamiento de información, sino de sistemas capaces de producir textos jurídicos completos y de influir en la toma de decisiones.

Este escenario se vincula de manera directa al deber de diligencia del abogado. La firma de un escrito judicial implica siempre una asunción de responsabilidad: quien lo presenta debe haber verificado la corrección fáctica y normativa de su contenido. Si un letrado incorpora en su trabajo un texto generado por inteligencia artificial que contiene errores o citas inexistentes, la responsabilidad no puede trasladarse a la herramienta. Sigue siendo indelegable y recae en el profesional, porque así lo exige la esencia misma del ejercicio de la abogacía.

Existen antecedentes preocupantes en distintas jurisdicciones. En Estados Unidos, el caso Mata v. Avianca, Inc. (2023) marcó un hito cuando un tribunal federal de Nueva York sancionó a dos abogados que presentaron un escrito con jurisprudencia inventada por un sistema de inteligencia artificial. El juez fue claro: el uso de estas herramientas “no es en sí mismo impropio”, pero recordó que las reglas éticas imponen al abogado un “rol de control” para garantizar la veracidad de lo que presenta.

En nuestro país ya contamos con un primer precedente. En agosto de 2025, la Cámara de Apelación en lo Civil y Comercial de Rosario (Sala II) advirtió a un letrado que había acompañado en un recurso citas jurisprudenciales inexistentes, atribuidas a un chatbot de IA generativa. El tribunal subrayó que, aún cuando el abogado hubiera actuado de buena fe, “resulta claro que las citas mencionadas no fueron chequeadas”, lo cual compromete su responsabilidad profesional y motivó incluso que se oficie al Colegio de Abogados de Rosario para alertar sobre los riesgos de esta práctica.

A la par, surgen riesgos vinculados con la confidencialidad. El deber de secreto profesional –consagrado en el artículo 156 del Código Penal y en los estatutos colegiales– puede verse vulnerado si se introducen datos sensibles en plataformas de IA sin garantías adecuadas de resguardo. Los documentos del CPACF insisten en tres precauciones básicas: 1) minimizar la carga de datos personales, 2) anonimizar la información siempre que sea posible y 3) revisar cuidadosamente las políticas de privacidad de cada sistema. El uso descuidado de estas herramientas podría exponer información estratégica de clientes o comprometer el derecho de defensa en juicio, con consecuencias graves tanto para el patrocinado como para la responsabilidad disciplinaria del abogado.

En este camino ya existen herramientas útiles para orientar la práctica. El Colegio Público de la Abogacía de la Capital Federal elaboró recientemente dos documentos que fijan criterios claros para un uso responsable de la IA: la “Guía para el uso de Inteligencia Artificial para Abogados” y, los “Criterios Orientadores para un uso Ético y Responsable de la Inteligencia Artificial”. Ambos documentos coinciden en cuatro ejes fundamentales: el empleo ético de la tecnología, evitando errores y sesgos; la necesidad de mantener siempre el control humano y prohibir la delegación de decisiones en algoritmos; la protección estricta de datos personales y del secreto profesional; y la obligación de capacitación continua para que los abogados comprendan los alcances y limitaciones de estas herramientas. Estas pautas no son meros consejos: constituyen estándares mínimos de diligencia que, de ser ignorados, pueden comprometer seriamente la responsabilidad profesional y la confianza en la abogacía.

Frente a este escenario, es necesario avanzar en tres direcciones. En primer lugar, los colegios profesionales deben emitir pautas claras sobre el uso responsable de la IA, incorporando recomendaciones específicas sobre verificación de información, protección de datos y límites éticos. En segundo lugar, las facultades de Derecho deberían incluir en su currícula formación en nuevas tecnologías aplicadas a la práctica jurídica, con un enfoque crítico y deontológico. Y en tercer lugar, el Poder Judicial y los órganos legislativos tendrían que abrir un debate sobre la regulación mínima de estas herramientas, para garantizar seguridad jurídica sin frenar la innovación.

La inteligencia artificial no sustituirá al abogado, pero sí modificará de manera profunda su modo de trabajar. La clave estará en comprender que estas herramientas son auxiliares, no reemplazos. El deber de análisis, interpretación y aplicación del derecho sigue siendo de los abogados. Y lo seguirá siendo, porque de ello depende no solo la calidad del servicio jurídico, sino también la legitimidad del sistema de justicia en su conjunto.

La abogacía argentina tiene la oportunidad de liderar un proceso de adaptación inteligente y responsable. No se trata de temer a la tecnología, sino de asumir que la ética profesional no puede tercerizarse a un algoritmo.

* Secretario General del CPACF

Noticias relacionadas

Suscribite a nuestro newsletter

Para estar actualizado de las últimas noticias, informes especiales y recibir las ediciones digitales antes que nadie!

Últimas noticias