KI-Fehler verzögern Mordprozess in Australien; Anwalt entschuldigt sich
Ein hochrangiger Anwalt in Australien hat sich öffentlich bei einem Richter entschuldigt, nachdem er in einem Mordfall Gerichtsunterlagen eingereicht hatte, die von künstlicher Intelligenz erfundene Zitate und Verweise auf nicht existierende Gerichtsurteile enthielten. Dieser schwerwiegende Fehler am Obersten Gerichtshof des Bundesstaates Victoria ist ein weiterer Fall in einer wachsenden Liste von KI-bezogenen Pannen, die weltweit Justizsysteme betreffen.
Verteidiger Rishi Nathwani, der den prestigeträchtigen Rechtstitel King’s Counsel trägt, übernahm die „volle Verantwortung“ für die fehlerhaften Informationen, die im Fall eines wegen Mordes angeklagten Teenagers eingereicht wurden. Gerichtsdokumente bestätigen Nathwanis Entschuldigung am Mittwoch vor Richter James Elliott mit den Worten: „Wir sind zutiefst betroffen und beschämt über das, was geschehen ist.“ Die KI-generierten Fehler verursachten eine 24-stündige Verzögerung bei der Lösung des Falles, den Richter Elliott früher abschließen wollte. Am Donnerstag sprach Elliott Nathwanis Klienten, der aufgrund seines Minderjährigenstatus nicht identifiziert werden kann, letztendlich wegen geistiger Beeinträchtigung vom Mord frei.
Richter Elliott drückte seine klare Unzufriedenheit mit der Situation aus. „Auf die Gefahr der Untertreibung: Die Art und Weise, wie sich diese Ereignisse entwickelt haben, ist unbefriedigend“, sagte er den Anwälten und betonte, dass „die Fähigkeit des Gerichts, sich auf die Richtigkeit der von den Anwälten gemachten Angaben zu verlassen, für die ordnungsgemäße Rechtspflege von grundlegender Bedeutung ist“. Die erfundenen Einreichungen enthielten fiktive Zitate, die angeblich aus einer Rede vor dem Landesparlament stammten, und nicht existierende Fallreferenzen, die dem Obersten Gerichtshof selbst zugeschrieben wurden.
Die Fehler kamen ans Licht, als die Mitarbeiter von Richter Elliott, die die zitierten Fälle nicht finden konnten, Kopien vom Verteidigungsteam anforderten. Die Anwälte gaben daraufhin zu, dass die Zitate „nicht existieren“ und dass die Einreichung „fiktive Zitate“ enthielt. Sie erklärten, dass sie zwar die ursprünglichen Zitate überprüft hatten, aber fälschlicherweise annahmen, dass die restlichen KI-generierten Informationen ebenfalls korrekt wären. Bemerkenswerterweise wurden die Einreichungen auch an Staatsanwalt Daniel Porceddu geschickt, der ihre Richtigkeit nicht unabhängig überprüfte. Richter Elliott hob hervor, dass der Oberste Gerichtshof bereits letztes Jahr Richtlinien zur Nutzung von KI durch Anwälte herausgegeben hatte, in denen ausdrücklich stand: „Es ist nicht akzeptabel, künstliche Intelligenz zu verwenden, es sei denn, das Produkt dieser Nutzung wird unabhängig und gründlich überprüft.“ Das spezifische generative KI-System, das von den Anwälten verwendet wurde, wurde in den Gerichtsdokumenten nicht identifiziert.
Dieser australische Vorfall ist kein Einzelfall. Im Jahr 2023 verhängte ein Bundesrichter in den Vereinigten Staaten eine Geldstrafe von 5.000 Dollar gegen zwei Anwälte und ihre Anwaltskanzlei, nachdem sie in einem Luftfahrt-Verletzungsanspruch fiktive Rechtsrecherchen eingereicht hatten, die sie ChatGPT zuschrieben. Richter P. Kevin Castel erkannte zwar ihre Entschuldigungen und Korrekturmaßnahmen an, stufte ihr anfängliches Verhalten jedoch als böswillig ein. Später im selben Jahr tauchten weitere erfundene Gerichtsurteile, ebenfalls von KI generiert, in Gerichtsunterlagen auf, die von Anwälten eingereicht wurden, die Michael Cohen, den ehemaligen persönlichen Anwalt des US-Präsidenten Donald Trump, vertraten. Cohen übernahm die Schuld und erklärte, er sei sich nicht bewusst gewesen, dass das „Google-Tool“, das er für seine Rechtsrecherche verwendete, solche „KI-Halluzinationen“ erzeugen konnte. Über den Atlantik hinweg erließ die britische High Court Justice Victoria Sharp im Juni eine deutliche Warnung, dass die Präsentation falschen Materials als echt zu Anklagen wegen Missachtung des Gerichts oder, in den schwerwiegendsten Fällen, zur Behinderung der Justiz führen könnte, einem Verbrechen, das eine Höchststrafe von lebenslanger Haft nach sich zieht. Diese Fälle unterstreichen gemeinsam die kritischen Herausforderungen und potenziellen Fallstricke, mit denen Rechtssysteme bei der Integration sich schnell entwickelnder künstlicher Intelligenztechnologien zu kämpfen haben.