Errores de IA retrasan juicio por asesinato en Australia; abogado se disculpa

Fastcompany

Un abogado sénior en Australia se ha disculpado públicamente ante un juez después de presentar escritos legales en un caso de asesinato que contenían citas fabricadas y referencias a sentencias de casos inexistentes, todo generado por inteligencia artificial. Este significativo error en la Corte Suprema del estado de Victoria marca otra instancia en una creciente lista de percances relacionados con la IA que afectan a los sistemas de justicia en todo el mundo.

El abogado defensor Rishi Nathwani, quien ostenta el prestigioso título legal de King’s Counsel, asumió la “total responsabilidad” por la información errónea presentada en el caso de un adolescente acusado de asesinato. Documentos judiciales confirman la disculpa de Nathwani el miércoles ante el juez James Elliott, afirmando: “Lamentamos profundamente y estamos avergonzados por lo ocurrido”. Los errores generados por la IA causaron un retraso de 24 horas en la resolución del caso, que el juez Elliott había esperado concluir antes. El jueves, Elliott finalmente dictaminó que el cliente de Nathwani, quien no puede ser identificado debido a su condición de menor, no era culpable de asesinato por motivos de deterioro mental.

El juez Elliott expresó clara insatisfacción con la situación. “A riesgo de subestimar, la forma en que se han desarrollado estos eventos es insatisfactoria”, dijo a los abogados, enfatizando que “la capacidad del tribunal para confiar en la exactitud de las presentaciones realizadas por el abogado es fundamental para la debida administración de justicia”. Las presentaciones fabricadas incluían citas ficticias supuestamente de un discurso a la legislatura estatal y referencias de casos inexistentes atribuidas a la propia Corte Suprema.

Los errores salieron a la luz cuando los asociados del juez Elliott, incapaces de localizar los casos citados, solicitaron copias al equipo de la defensa. Los abogados admitieron posteriormente que las citas “no existen” y que el escrito contenía “citas ficticias”. Explicaron que, si bien habían verificado las citas iniciales, asumieron erróneamente que el resto de la información generada por IA también sería precisa. En particular, los escritos también fueron enviados al fiscal Daniel Porceddu, quien no verificó independientemente su exactitud. El juez Elliott destacó que la Corte Suprema había emitido directrices el año pasado sobre el uso de la IA por parte de los abogados, estableciendo explícitamente: “No es aceptable el uso de inteligencia artificial a menos que el producto de ese uso sea verificado de forma independiente y exhaustiva”. El sistema específico de IA generativa utilizado por los abogados no fue identificado en los documentos judiciales.

Este incidente australiano no es aislado. En 2023, un juez federal en Estados Unidos impuso multas de 5.000 dólares a dos abogados y a su bufete después de que presentaran investigaciones legales ficticias, que atribuyeron a ChatGPT, en una demanda por lesiones de aviación. El juez P. Kevin Castel, si bien reconoció sus disculpas y acciones correctivas, consideró que su conducta inicial fue de mala fe. Más tarde ese mismo año, más fallos judiciales inventados, nuevamente generados por IA, aparecieron en documentos legales presentados por abogados que representaban a Michael Cohen, ex abogado personal del presidente de Estados Unidos, Donald Trump. Cohen aceptó la culpa, afirmando que no sabía que la “herramienta de Google” que estaba usando para la investigación legal era capaz de producir tales “alucinaciones de IA”. Al otro lado del Atlántico, la jueza del Tribunal Superior británico Victoria Sharp emitió una severa advertencia en junio, indicando que presentar material falso como genuino podría llevar a cargos por desacato al tribunal o, en los casos más graves, a pervertir el curso de la justicia, un delito que conlleva una pena máxima de cadena perpetua. Estos casos subrayan colectivamente los desafíos críticos y los posibles escollos a medida que los sistemas legales lidian con la integración de tecnologías de inteligencia artificial en rápida evolución.