El Juzgado Civil y Comercial de Tucumán impuso una multa de 620.000 pesos por “temeridad y mala fe”, tras comprobar que la letrada incorporó fallos inexistentes y enlaces que remitían a ChatGPT. También dio intervención al Tribunal de Ética.
En un pronunciamiento que marca un precedente sobre el uso responsable de herramientas digitales en el ejercicio profesional, la Justicia civil de Tucumán sancionó a una abogada por fundar una demanda de daños y perjuicios con jurisprudencia inexistente, presuntamente generada mediante Inteligencia Artificial (IA), sin verificación humana posterior.
La resolución fue dictada el 2 de febrero de 2026 por el juez Santiago José Peral, a cargo de la Oficina de Gestión Asociada Civil y Comercial N° 1 de San Miguel de Tucumán, en el expediente “O.F.C. c/ Booking.com Argentina S.R.L.”.
“Alucinaciones” jurídicas y huella digital
El giro del proceso se produjo cuando la defensa de la plataforma turística advirtió que al menos seis de los precedentes citados por la actora -entre ellos “González c/ Booking” y “Defensoría del Pueblo c/ Viajes Ya S.A.”– no existían en ninguna base de datos jurídica. En audiencia, el abogado de la demandada señaló que se trataba de lo que, en el ámbito tecnológico, se conoce como “alucinaciones”: respuestas verosímiles pero erróneas producidas por sistemas de IA.
Ante la intimación judicial para acompañar copias de los fallos, la letrada aportó enlaces con severas inconsistencias: redirecciones a causas ajenas, vínculos genéricos a secciones de “Contacto” de portales jurídicos y, finalmente, un rastro digital inequívoco. En uno de los links suministrados por la propia profesional se leía, al final de la URL, la leyenda “source=chatgpt.com”, lo que evidenció que la información provenía de ChatGPT.
El criterio del tribunal
El juez Peral fue categórico. Confirmó la “inexistencia objetiva de los precedentes citados” y concluyó que las referencias “pudieron haber sido generadas mediante herramientas de inteligencia artificial, sin el debido control humano sobre su veracidad”. En ese marco, subrayó que el reproche no recae en el uso de la tecnología en sí, sino en la “ausencia de control profesional efectivo”, que afecta la buena fe procesal y la confiabilidad del debate judicial.
La sentencia también cita doctrina de la Corte Suprema de Justicia de Tucumán, para encuadrar la conducta como negligencia grave, incompatible con los deberes de probidad, lealtad y diligencia que rigen la función del abogado. Para el magistrado, no se trató de un mero error: la gravedad se vio agravada por la insistencia de la profesional en sostener la validez de las citas falsas incluso después de haber sido intimada a verificarlas.
Sanciones y consecuencias
Al tener por configurada la temeridad y mala fe procesal, el tribunal dispuso:
- Multa personal de 620.000 pesos, equivalente al valor de una consulta escrita vigente, a favor de la demandada, con fundamento en el artículo 26 del Código Procesal Civil y Comercial de Tucumán.
- Pago de las costas del incidente a cargo exclusivo de la abogada, eximiendo expresamente a la clienta -quien actuaba como consumidora- por tratarse de irregularidades técnicas atribuibles a su representación letrada (artículo 68 del CPCCT).
- Remisión de las actuaciones al Colegio de Abogados de Tucumán, para que su Tribunal de Ética y Disciplina evalúe la eventual aplicación de sanciones adicionales.
- Exhortación judicial a adecuar su desempeño futuro a los deberes de veracidad, probidad, lealtad, buena fe y diligencia, bajo apercibimiento de ley.
Un precedente en tiempos de IA
El fallo deja una advertencia clara: la Inteligencia Artificial puede ser una herramienta auxiliar valiosa, pero nunca un sustituto del juicio profesional. En tiempos de expansión acelerada de tecnologías generativas, la decisión de Tucumán fija un estándar de responsabilidad: verificar fuentes, controlar contenidos y preservar la integridad del proceso judicial. La innovación, concluye el tribunal, no exonera del deber básico de corroborar la verdad.
