KI-Fehler in Australien: Anwalt reicht gefälschte Dokumente ein

Fastcompany

Ein prominenter australischer Anwalt hat sich bei einem Richter des Obersten Gerichtshofs entschuldigt, nachdem er in einem Mordprozess juristische Dokumente eingereicht hatte, die von künstlicher Intelligenz generierte, fabrizierte Zitate und nicht existierende Urteile enthielten. Dieser Vorfall am Obersten Gerichtshof von Victoria ist ein weiteres Beispiel dafür, wie KI-bedingte Fehler Justizsysteme weltweit stören.

Verteidiger Rishi Nathwani, ein King’s Counsel, übernahm „die volle Verantwortung“ für die Ungenauigkeiten in den Schriftsätzen für einen wegen Mordes angeklagten Teenager. „Wir bedauern zutiefst und sind beschämt über das, was passiert ist“, teilte Nathwani im Namen des Verteidigungsteams Richter James Elliott mit. Die KI-generierten Fehler verursachten eine 24-stündige Verzögerung im Verfahren, das Richter Elliott eigentlich früher abschließen wollte. Am folgenden Tag entschied Elliott, dass Nathwanis Mandant, ein Minderjähriger, dessen Identität geschützt bleibt, aufgrund einer psychischen Beeinträchtigung nicht des Mordes schuldig war.

Richter Elliott äußerte seine starke Missbilligung der Situation und erklärte: „Die Art und Weise, wie sich diese Ereignisse entwickelt haben, ist unbefriedigend.“ Er unterstrich die entscheidende Bedeutung zuverlässiger juristischer Schriftsätze und fügte hinzu: „Die Fähigkeit des Gerichts, sich auf die Richtigkeit der von Anwälten gemachten Eingaben zu verlassen, ist grundlegend für die ordnungsgemäße Rechtspflege.“ Die irreführenden Einreichungen enthielten Zitate, die fälschlicherweise einer Rede im Landesparlament zugeschrieben wurden, und Fallzitate, die angeblich vom Obersten Gerichtshof stammten, aber nicht existierten.

Die Fehler kamen ans Licht, als Richter Elliotts Assistenten versuchten, die zitierten Fälle zu überprüfen und feststellten, dass sie fehlten, woraufhin sie Kopien vom Verteidigungsteam anforderten. Die Anwälte gaben daraufhin zu, dass die Zitate „nicht existieren“ und dass die Einreichung „fiktive Zitate“ enthielt. Sie erklärten, dass sie zwar die anfänglichen Zitate überprüft hatten, aber fälschlicherweise annahmen, dass die anderen ebenfalls korrekt seien. Die irreführenden Schriftsätze waren auch an Staatsanwalt Daniel Porceddu geschickt worden, der ihre Richtigkeit nicht überprüft hatte. Das spezifische generative KI-System, das von den Anwälten verwendet wurde, wurde in den Gerichtsunterlagen nicht genannt.

Dieser australische Fehler spiegelt ähnliche Herausforderungen wider, denen sich Rechtssysteme weltweit gegenübersehen. In den Vereinigten Staaten wurden 2023 zwei Anwälte und ihre Firma von einem Bundesrichter mit einer Geldstrafe von 5.000 US-Dollar belegt, nachdem ihre Einreichung in einem Luftfahrtverletzungsanspruch fiktive juristische Recherchen enthielt, die ChatGPT zugeschrieben wurden. Richter P. Kevin Castel bemerkte zwar ihren bösen Glauben, würdigte aber ihre Entschuldigungen und Korrekturmaßnahmen und entschied sich für weniger strenge Sanktionen. Später im selben Jahr tauchten weitere von KI erfundene Gerichtsurteile in juristischen Dokumenten auf, die von Anwälten für Michael Cohen, dem ehemaligen persönlichen Anwalt des US-Präsidenten Donald Trump, eingereicht wurden. Cohen übernahm die Verantwortung und gab zu, dass er nicht wusste, dass das Google-Tool, das er für juristische Recherchen verwendete, in der Lage war, sogenannte „KI-Halluzinationen“ zu produzieren.

Die Justiz hat diese neuen Probleme proaktiv angegangen. Richter Elliott wies darauf hin, dass der Oberste Gerichtshof von Victoria im vergangenen Jahr Richtlinien zur Nutzung von KI durch Anwälte herausgegeben hatte. Diese Richtlinien betonen: „Es ist nicht akzeptabel, künstliche Intelligenz zu verwenden, es sei denn, das Ergebnis dieser Nutzung wird unabhängig und gründlich überprüft.“ Auf der anderen Seite des Atlantiks warnte die britische High Court Justice Victoria Sharp im Juni, dass das Präsentieren von falschem Material als echt zu Anklagen wegen Missachtung des Gerichts oder, in den schwersten Fällen, zur Behinderung der Justiz führen könnte, ein Verbrechen, das eine Höchststrafe von lebenslanger Haft nach sich zieht. Diese Vorfälle unterstreichen eine wachsende Besorgnis unter Juristen und Gerichten weltweit: die Notwendigkeit sicherzustellen, dass die Integration von künstlicher Intelligenz die grundlegenden Prinzipien der Genauigkeit und Integrität innerhalb des Justizsystems verbessert und nicht untergräbt.