KI in Rechtsberichten: Wie nachweisbar ist die Beweiskraft?
Die zunehmende Akzeptanz von künstlicher Intelligenz durch Polizeibehörden und andere Institutionen zur Erstellung von Berichten und rechtlichen Narrativen wirft erhebliche Fragen zur Natur von Beweismitteln auf. Traditionell basieren Dokumente wie Polizeiberichte, Versicherungsansprüche und rechtliche Erklärungen auf menschlicher Beobachtung, Zeugenaussagen oder direkter Erfahrung. KI-Systeme erstellen jedoch jetzt vollständige schriftliche Berichte aus Eingaben wie Audio von Körperkameras, Diktaten von Beamten und Metadaten. Während diese Systeme Geschwindigkeit, Standardisierung und Konsistenz bieten, unterscheiden sie sich grundlegend von menschlichen Autoren: Sie haben die von ihnen beschriebenen Ereignisse nie direkt miterlebt.
Diese Verschiebung bedeutet, dass Sprache mit erheblicher rechtlicher Relevanz ohne direkte menschliche Wahrnehmung erzeugt wird. Diese KI-generierten Berichte ahmen oft den autoritären Ton rechtlicher Zeugenaussagen nach, einschließlich Kausalitätsaussagen, Verweisen auf Beweismittel und Beschreibungen von Handlungen. Dies wirft ein kritisches rechtliches und ethisches Dilemma auf: Kann ein Satz als Beweis betrachtet werden, auch wenn kein Mensch ihn tatsächlich geäußert, das beschriebene Ereignis miterlebt oder seine Entstehung überprüft hat? Beunruhigenderweise lautet die Antwort oft ja, was zu potenziell problematischen Auswirkungen in rechtlichen und administrativen Kontexten führt.
Ein kürzlich erschienener Artikel, „Prädiktive Aussage: Kompilierte Syntax in KI-generierten Polizeiberichten und gerichtlichen Narrativen“, befasst sich damit, wie diese KI-Systeme als „kompilierte Syntax-Engines“ funktionieren. Das bedeutet, dass sie durch die Anwendung vordefinierter linguistischer Regeln, Vorlagen und grammatikalischer Strukturen rohe, oft unstrukturierte Eingaben in ausgefeilten, rechtlich resonanten Text umwandeln. In diesem Prozess identifiziert der Artikel die Einführung dessen, was er als „Operator-konditionierte Beweise“ bezeichnet – subtile Entscheidungen der KI, die die wahrgenommene Autorität, Sicherheit und Interpretation eines Satzes erheblich verändern können.
Der Artikel hebt sechs zentrale „Operatoren“ hervor, die beeinflussen, wie ein Bericht als Beweismittel fungiert:
Agentenlöschung (Agent Deletion): Entfernung des Subjekts, das eine Handlung ausführt, wodurch verschleiert wird, wer was getan hat.
Modale Abschwächung (Modal Attenuation): Ersetzen starker Behauptungen durch schwächere, weniger definitive Begriffe wie „könnte“, „könnte möglicherweise“ oder „anscheinend“.
Einfügung eines Beweisrahmens (Evidential Frame Insertion): Hinzufügen von Phrasen wie „Aufzeichnungen deuten darauf hin, dass…“, ohne Zugang zu den zugrunde liegenden Aufzeichnungen selbst zu ermöglichen.
Verschiebung der zeitlichen Verankerung (Temporal Anchoring Shift): Ändern der gemeldeten Zeit eines Ereignisses, um sie an die Verarbeitungszeit des Systems anzupassen, anstatt an das tatsächliche Vorkommnis.
Serielle Nominalisierung (Serial Nominalization): Umwandlung dynamischer Handlungen in statische Substantive, was Ereignisse entpersonalisieren kann.
Quasi-Zitat (Quasi Quotation): Paraphrasierte Aussagen klingen lassen wie direkte Zitate, was deren ursprüngliche Absicht oder den Kontext potenziell verändern kann.
Jede dieser sprachlichen Manipulationen kann subtil beeinflussen, wie Verantwortung, Sicherheit und Kausalität innerhalb eines Berichts verstanden werden, und geht über die bloße Beschreibung hinaus, um die Wahrnehmung zu beeinflussen.
Die Auswirkungen dieser KI-generierten Berichte sind tiefgreifend, da sie aktiv in realen Entscheidungen, einschließlich Verhaftungen, Ablehnungen von Versicherungsansprüchen und Gerichtsakten, verwendet werden. Oft wird der Prozess, durch den diese Sätze generiert werden, nicht überprüft. Zum Beispiel fehlen einer Aussage wie „Die Person wurde nach Befehlserteilung festgenommen“ entscheidende Details darüber, wer die Befehle erteilte oder was diese Befehle waren. Ähnlich wirft „Systemaufzeichnungen zeigen, dass der Verdächtige eine Beteiligung bestritt“ Fragen nach dem Ort und der Überprüfbarkeit dieser „Systemaufzeichnungen“ und danach auf, wer die Ablehnung tatsächlich gehört hat. Eine Phrase wie „Es könnte ein gewaltsamer Eintritt stattgefunden haben“ verwischt die Grenze zwischen wahrscheinlichem Grund und bloßer Spekulation.
Solche Sprache kann in Rechtssystemen unangefochten bestehen, eben weil sie „richtig klingt“ und institutionellen Erwartungen entspricht. Sie kann jedoch strukturell leer sein, ohne einen klaren Akteur, überprüfbare Quellen oder eine solide Verankerung in der Realität.
Anstatt ein Verbot von KI-generierten Berichten zu befürworten, schlägt der Artikel eine praktischere Lösung vor: die Syntax auditierbar zu machen. Er skizziert einen vierstufigen Weg, um die Entwicklung eines Berichts von seinen Rohdaten bis zu seiner endgültigen Form zu verfolgen:
Eingabestrom (Input Stream): Die anfänglichen Rohdaten, wie Audioaufnahmen, Zeitprotokolle oder Formulare.
Kompilierungsprotokoll (Compilation Log): Eine Aufzeichnung der internen Prozesse und Regeln des Systems, die zur Generierung des Textes verwendet wurden.
Operatorenverfolgung (Operator Trace): Identifizierung, welche spezifischen linguistischen Operatoren angewendet wurden und wo im Text.
Beweisoberfläche (Evidentiary Surface): Der endgültige, ausgefeilte Bericht.
Dieser Rahmen würde es Institutionen ermöglichen, zu verfolgen, wie ein bestimmter Satz konstruiert wurde, zu identifizieren, welche Operatoren seine Formulierung beeinflusst haben, und alle daraus resultierenden Beweisschwächen zu bewerten. Der Artikel schlägt auch einen Screening-Test vor: Jede Klausel, die keinen bekannten Sprecher hat, nicht überprüfbare Quellen zitiert oder verschobene Zeitreferenzen aufweist, sollte gekennzeichnet, korrigiert oder von der Berücksichtigung ausgeschlossen werden.
Dieser Ansatz ist innovativ, weil er nicht versucht, die „Absicht“ einer KI abzuleiten, die sie nicht besitzt. Stattdessen konzentriert er sich auf die objektive Struktur der generierten Sprache und behandelt jeden Satz als eine Handlung. Wenn die Struktur den Anschein von Beweisen ohne die zugrunde liegende Substanz erweckt, muss diese Struktur rigoros getestet werden. Diese Lösung ist breit anwendbar für Anwälte, Richter, Ingenieure und Ethiker, und entscheidend ist, dass sie keine Demontage bestehender automatisierter Arbeitsabläufe erfordert, da viele der benötigten Artefakte – wie Protokolle, Eingabeaufforderungen und Bearbeitungshistorien – bereits in diesen Systemen vorhanden sind. Der Schlüssel liegt darin, sie für verbesserte Transparenz und Rechenschaftspflicht zu nutzen.