Mientras el mundo fue sacudido al conocerse que citas falsas y "alucinaciones" de la Inteligencia Artificial se colaron en un informe que realizó Deloitte para el Gobierno de Australia, en Argentina, varios Tribunales vienen sancionando a abogados por presentar escritos con citas de fallos falsos, llegando incluso a negarles los honorarios. Qué dicen los expertos.

"El escándalo que involucra a Deloitte Australia –obligada a reembolsar parcialmente un contrato con el Gobierno tras presentar un informe plagado de errores generados por IA– no es un hecho aislado. Es una advertencia seria sobre la fragilidad del juicio profesional cuando se delega en sistemas automatizados sin control ni verificación humana", subrayan a iProUP Gilberto e Ignacio Santamaría, del Estudio Santamaría Abogados.

Qué pasó con el informe erróneo de Deloitte

Medios internacionales como ABC News y La República difundieron que el documento incluía citas falsas y hacía referencia a estudios inexistentes de prestigiosas universidades, como la de Sídney y Lund en Suecia.

Pese a que la consultora aseguró que las conclusiones y recomendaciones del informe no se alteraron, la versión actualizada por Deloitte agregó una nota aclaratoria donde reconoció el uso de un modelo de lenguaje generativo –específicamente Azure OpenAI GPT 4– para la elaboración de una parte del texto.

Aunque la empresa no culpó directamente a la IA por los errores, sí admitió que tuvo que corregir referencias, citas y un resumen de procedimientos legales que estaban plagados de fallas.

"Las actualizaciones no alteran el contenido sustantivo, las conclusiones ni las recomendaciones del informe", sostuvo la firma en la versión revisada. Deloitte Australia dio por concluida la polémica, señalando que el asunto fue resuelto "directamente con el cliente".

"La empresa reconoció el error y aceptó un reembolso, pero el daño reputacional –y conceptual– estaba hecho, y cabe preguntarse: ¿qué ocurre cuando la interpretación normativa, contable o económica se sustituye por correlaciones estadísticas sin comprensión del contexto?", sostienen los expertos del Estudio Santamaría.

¿La IA tiene la culpa de los errores?

Iván Bolé, abogado experto en cripto y tecnología, afirma a iProUP que "lo que pasó en Australia con Deloitte trae a colación un aspecto de la adopción temprana de la IA: la responsabilidad. Más allá de la tragicomedia, esto habla más del uso irresponsable y perezoso de una herramienta valiosa que de la herramienta en sí".

"Seguramente, el empleado no efectuó los controles debidos y no dijo que estaba usando Inteligencia Artificial al responsable de supervisar el trabajo, que no supo que estaba ante un mayor riesgo de errores", considera el abogado y experto en temas tecnológicos Ismael Lofeudo.

Bolé añade que "es cierto que los modelos de IA tienden a 'inventar' cuando no tienen precisión sobre algo. Pero esos sesgos vienen programados: son parte del enlatado, y por eso requieren entrenamiento y validación humana".

"El profesional –sea contador, abogado o auditor– no puede abdicar de su responsabilidad delegando el juicio en una herramienta que carece de comprensión semántica. La IA puede asistir, pero no reemplazar la interpretación", aclaran los expertos del Estudio Santamaría, y agregan que, "en última instancia, la firma estampada al pie de un informe o dictamen sigue siendo humana".

Cuáles son los casos argentinos

En Argentina ocurrieron varios casos judiciales en los que los jueces llamaron la atención e incluso aplicaron sanciones a abogados por el mal uso de la inteligencia artificial en sus escritos, principalmente por la inclusión de citas jurisprudenciales falsas o inexistentes generadas por chatbots de IA (fenómeno conocido como "alucinaciones").

Esto está en consonancia con el crecimiento de la adopción de la IA en la profesión jurídica y contable en Latinoamérica y Argentina, según relatan los expertos del Estudio Santamaría:

Los casos más destacados y las acciones tomadas por los tribunales incluyen:

1. Cámara Civil y Comercial de Rosario (Santa Fe)

Fue uno de los primeros y más resonantes casos en el país. La Sala II reprendió formalmente a un abogado por presentar un recurso judicial con citas jurisprudenciales inexistentes creadas por un chatbot de IA que no fueron verificadas.

El tribunal le hizo un llamado de atención al letrado y notificó al Colegio de Abogados de Rosario para que tome medidas preventivas y difunda la problemática, subrayando la responsabilidad profesional indelegable de verificar las fuentes, incluso si se usó la IA "de buena fe".

2. Cámara de Apelaciones de General Roca (Río Negro)

Un tribunal de apelaciones declaró inoficiosa (sin valor ni efecto) la actividad de los profesionales involucrados y, como consecuencia, no reguló honorarios debido a la cita de múltiples fallos inexistentes generados por IA.

Este tribunal también notificó al tribunal de ética y consideró grave el uso de la IA sin un control responsable.

3. Cámara de Apelaciones en lo Civil y Comercial de Morón

La Sala I declaró desierto un recurso de apelación porque la expresión de agravios se basaba casi íntegramente en fallos no localizables, citados sin fecha ni datos verificables.

El tribunal advirtió que el uso de IA no exime al letrado de la obligación de crítica concreta y razonada.

En qué regulación avanza la Justicia argentina

Además de las advertencias y sanciones en casos particulares, algunas jurisdicciones avanzaron en la regulación del uso de la IA para prevenir estos abusos:

El Superior Tribunal de Justicia de Río Negro aprobó una nueva acordada que habilita a los tribunales a sancionar a los abogados que presenten escritos con citas falsas o jurisprudencia inventada mediante IA.

Esta medida busca proteger el derecho de defensa y ampliar el protocolo de buenas prácticas, haciendo obligatorio el uso responsable para los profesionales de la abogacía.

Estos precedentes establecen que la responsabilidad de verificar la veracidad de la información, especialmente la jurisprudencia, recae siempre en el abogado firmante, y que el uso no controlado de la IA generativa puede comprometer la ética profesional y la seriedad del proceso judicial.

Qué deben hacer los estudios legales

"El uso generalizado, no supervisado y no regulado de herramientas de LLM (Large Language Models) en procesos hasta ahora restringidos a la creatividad y expertise humana, se volvió un problema de difícil solución, entre quienes buscan optimizar recursos o reducir esfuerzos, y aquellos que esperan resultados por los que han abonado y mantienen cierta expectativa de calidad y dedicación", afirma el abogado y experto en cripto y tecnología Federico Tjor.

El letrado sostiene que "el caso Deloitte en Australia no resulta muy diferente al de otra área, exigente e intensiva en materia de desarrollo intelectual, como es la Justicia y el derecho".

"Si bien existen intentos regulatorios y reglas de mejores prácticas en el uso de IA, la inexistencia de reglas claras y laxitud en los procedimientos de compliance internos en corporaciones en esta materia, llevan al desprestigio y en casos extremos, a errores irreparables, en los resultados de aquellos que la utilizan sin supervisión, dado que el estado actual de los LLM no permite, al menos hasta la fecha, un uso responsable libre de control humano", considera.

"Ello nos debe hacer reflexionar como sociedad, respecto, no de las capacidades de los LLM –incuestionables y en crecimiento exponencial permanente–, sino de cómo deben ser utilizadas", concluye.

Te puede interesar