Abogado Australiano Usa IA para Presentar Documentos Legales Falsos

Fastcompany

Un destacado abogado australiano ha pedido disculpas a un juez del Tribunal Supremo tras presentar documentos legales en un juicio por asesinato que contenían citas fabricadas y sentencias de casos inexistentes, todo ello generado por inteligencia artificial. Este incidente en el Tribunal Supremo de Victoria marca otra instancia de errores inducidos por la IA que perturban los sistemas de justicia en todo el mundo.

El abogado defensor Rishi Nathwani, un King’s Counsel, aceptó “plena responsabilidad” por las inexactitudes en los documentos presentados para un adolescente acusado de asesinato. “Lamentamos profundamente y estamos avergonzados por lo ocurrido”, transmitió Nathwani al juez James Elliott en nombre del equipo de defensa. Los errores generados por la IA causaron un retraso de 24 horas en los procedimientos, que el juez Elliott había esperado concluir antes. Al día siguiente, Elliott dictaminó que el cliente de Nathwani, un menor cuya identidad permanece protegida, no era culpable de asesinato debido a deterioro mental.

El juez Elliott expresó su fuerte desaprobación de la situación, afirmando: “La forma en que se han desarrollado estos eventos es insatisfactoria.” Subrayó la importancia crítica de las presentaciones legales fiables, añadiendo: “La capacidad del tribunal para confiar en la exactitud de las presentaciones realizadas por los abogados es fundamental para la debida administración de justicia.” Los documentos engañosos incluían citas falsamente atribuidas a un discurso en la legislatura estatal y citaciones de casos supuestamente del Tribunal Supremo que no existían.

Los errores salieron a la luz cuando los asociados del juez Elliott intentaron verificar los casos citados y los encontraron ausentes, lo que les llevó a solicitar copias al equipo de defensa. Los abogados admitieron posteriormente que las citaciones “no existen” y que la presentación contenía “citas ficticias.” Explicaron que, si bien habían verificado las citaciones iniciales, habían asumido erróneamente que las demás también serían precisas. Las presentaciones engañosas también habían sido enviadas al fiscal Daniel Porceddu, quien no había verificado su veracidad. El sistema específico de IA generativa utilizado por los abogados no fue identificado en los documentos judiciales.

Este error australiano hace eco de desafíos similares enfrentados por los sistemas legales a nivel mundial. En Estados Unidos en 2023, dos abogados y su firma fueron multados con 5.000 dólares por un juez federal después de que su presentación en una demanda por lesiones de aviación contuviera investigación legal ficticia, atribuida a ChatGPT. El juez P. Kevin Castel, aunque notó su mala fe, reconoció sus disculpas y acciones correctivas, optando por sanciones menos severas. Más tarde ese año, más fallos judiciales inventados por IA aparecieron en documentos legales presentados por los abogados de Michael Cohen, ex abogado personal del presidente de EE. UU. Donald Trump. Cohen asumió la responsabilidad, admitiendo que no sabía que la herramienta de Google que estaba usando para la investigación legal era capaz de producir lo que se conoce como “alucinaciones de IA.”

El poder judicial ha sido proactivo en abordar estas cuestiones emergentes. El juez Elliott señaló que el Tribunal Supremo de Victoria había emitido directrices el año pasado sobre el uso de la IA por parte de los abogados. Estas directrices enfatizan que “no es aceptable el uso de inteligencia artificial a menos que el producto de ese uso sea verificado de forma independiente y exhaustiva.” Al otro lado del Atlántico, la jueza del Tribunal Superior Británico Victoria Sharp advirtió en junio que presentar material falso como genuino podría llevar a cargos de desacato al tribunal o, en los casos más graves, a pervertir el curso de la justicia, un delito que conlleva una pena máxima de cadena perpetua. Estos incidentes subrayan una creciente preocupación entre los profesionales del derecho y los tribunales de todo el mundo: el imperativo de asegurar que la integración de la inteligencia artificial mejore, en lugar de socavar, los principios fundamentales de precisión e integridad dentro del sistema de justicia.