ChatGPT en los tribunales: un abogado citó jurisprudencia falsa y perdió la apelación

La Cámara de Apelación en lo Civil y Comercial de Morón declaró desierto un recurso de apelación tras detectar que el abogado había citado precedentes inexistentes, posiblemente generados con el uso de ChatGPT. El antecedente más reciente.

La Sala I de la Cámara de Apelación en lo Civil y Comercial de Morón resolvió declarar desierto un recurso interpuesto en el marco de una causa por daños y perjuicios porque la defensa basó el pedido en citas de jurisprudencia inexistente, posiblemente generadas con el uso de ChatGPT.

La decisión fue tomada en el expediente “Acevedo Gerardo Gabriel c/ Cáceres Mareco Willian Arsenio y Agrosalta Cooperativa de Seguros Ltda. s/ daños y perjuicios autom”. En su voto, el juez Gabriel Quadri remarcó que casi la totalidad de la apelación se apoyaba en un fallo identificado como “Barrios, Rubén Darío c/ Acuña, Gustavo Gabriel”, que no pudo ser localizado en registros oficiales ni en la base de datos de la Suprema Corte bonaerense.

La misma situación se repitió con otros precedentes mencionados, lo que dejó en evidencia que la presentación carecía de la crítica “concreta y razonada” que exige el artículo 260 del Código Procesal Civil y Comercial.

El tribunal advirtió que este fenómeno ya había sido detectado en otros países, donde abogados recurrieron a sistemas de inteligencia artificial generativa -como ChatGPT- para elaborar escritos. Estas herramientas, al producir lo que se conoce como “alucinaciones”, fabrican citas jurídicas que no existen en la realidad. “Este fenómeno configura, en esencia, una situación donde los sistemas de inteligencia artificial generativa brinda al usuario respuestas integradas por información que, luego, no se corresponde con la realidad”, indica Quadri.

Si bien la Cámara evitó sancionar al profesional, sostuvo que corresponde poner en conocimiento del Colegio de Abogados de Morón lo sucedido, a fin de reforzar entre los matriculados la necesidad de verificar cuidadosamente cualquier cita proveniente de estas tecnologías.

“Considero que este tipo de situaciones deben abordarse desde un enfoque empático y colaborativo para fomentar un mejor uso de las herramientas tecnológicas en la profesión”, señaló la resolución.

De hecho, el juez citó un dictamen reciente de la Cámara Civil y Comercial de Rosario, que detectó una situación similar: un abogado también presentó jurisprudencia inexistente, aunque reconoció que lo hizo de buena fe.

En el fallo, el juez Oscar Puccinelli enfatizó que la verificación de las fuentes es un deber indelegable del profesional y envió ofició al Colegio de Abogados para alertar sobre los riesgos de trasladar sin control los resultados de estas herramientas al ámbito judicial.

Tras intimar al abogado a precisar las fuentes, el propio letrado respondió que había copiado la información generada por un chatbot sin comprobar su veracidad. En el fallo, el tribunal advirtió que este tipo de prácticas, aun sin intención maliciosa, comprometen la responsabilidad profesional frente al tribunal y al cliente. También remarcó que ninguna manifestación de consentimiento informado puede eximir al abogado de cotejar la autenticidad de los precedentes utilizados.

La resolución fue categórica: la inteligencia artificial puede ser un recurso de apoyo, pero no sustituye la diligencia ni la ética en el ejercicio de la abogacía.

Noticias relacionadas

Suscribite a nuestro newsletter

Para estar actualizado de las últimas noticias, informes especiales y recibir las ediciones digitales antes que nadie!

Últimas noticias