KI-Kriminalprognose in UK: Daten statt Precogs

Theregister

Die britische Regierung hat eine ehrgeizige neue Initiative vorgestellt, um künstliche Intelligenz zur Vorbeugung von Kriminalität einzusetzen – ein Schritt, der sofort Vergleiche mit der dystopischen Vision von „Minority Report“ hervorgerufen hat. Während der Sci-Fi-Film psychische „Precogs“ zur Vorhersage krimineller Handlungen zeigte, soll dieses reale Schema Daten, Algorithmen und KI nutzen, um „der Polizei zu helfen, Kriminelle zu fangen, bevor sie zuschlagen“.

Das Projekt, offiziell von Wissenschafts- und Technologieminister Peter Kyle angekündigt, wird detaillierte interaktive Kriminalitätskarten in England und Wales erstellen. Diese Karten sollen durch die Sammlung und Analyse riesiger Datensätze von Polizei, lokalen Behörden und Sozialdiensten identifizieren, wo Straftaten am wahrscheinlichsten auftreten. Diese Informationen umfassen Vorstrafen, frühere Tatorte und sogar Verhaltensmuster bekannter Straftäter. Das erklärte Ziel der Regierung ist es, die öffentliche Sicherheit zu verbessern, mit besonderem Fokus auf die Bekämpfung von Verbrechen, die Menschen in ihren Nachbarschaften unsicher fühlen lassen, wie Diebstahl, asoziales Verhalten, Messerkriminalität und Gewaltverbrechen. Ein Hauptziel ist es, die Messerkriminalität und Gewalt gegen Frauen und Mädchen innerhalb eines Jahrzehnts zu halbieren.

Unterstützt durch eine anfängliche Investition von 4 Millionen Pfund für Prototypen, die bis April 2026 erwartet werden, soll das voll funktionsfähige System bis 2030 eingesetzt werden und bildet einen Eckpfeiler des umfassenderen 500 Millionen Pfund schweren F&E-Missions-Beschleunigungsprogramms und der „Safer Streets Mission“ der Regierung. Befürworter, darunter Organisationen wie Neighbourhood Watch und Resolve, haben die Initiative als „Meilenstein“ für die Gemeinschaftssicherheit gelobt, da sie glauben, dass sie die Strafverfolgungsbehörden in die Lage versetzen wird, Ressourcen effektiver einzusetzen und Viktimisierung zu verhindern. Minister Kyle erklärte, dass „Spitzentechnologie wie KI unser Leben auf so viele Weisen verbessern kann, auch indem sie uns sicher hält“, und positionierte die Technologie so, dass sie „Opfern gegenüber Vandalen, der gesetzestreuen Mehrheit gegenüber den Gesetzesbrechern“ zugutekommt.

Der ehrgeizige Plan hat jedoch einen Sturm der Kritik von Datenschützern und Bürgerrechtsgruppen ausgelöst, die vor einem gefährlichen Abgleiten in eine „totale Überwachungsgesellschaft“ warnen. Organisationen wie Big Brother Watch und Liberty haben tiefe Bedenken geäußert, dass solche Systeme das grundlegende Prinzip der Unschuldsvermutung untergraben könnten, indem sie Personen oder Gebiete auf der Grundlage algorithmischer Vorhersagen anstatt konkreter Beweise für Fehlverhalten ins Visier nehmen. Baroness Shami Chakrabarti, ehemalige Direktorin von Liberty, beschrieb diese KI-gesteuerten Polizeitechnologien als „unglaublich aufdringlich“ und hob hervor, dass ihr Einsatz aufgrund fehlender spezifischer Gesetzgebung oft „vollständig außerhalb des Gesetzes“ erfolgt sei.

Eine zentrale und zutiefst beunruhigende ethische Bedenken dreht sich um das Potenzial von KI-Algorithmen, bestehende gesellschaftliche Vorurteile, die in historischen Polizeidaten verankert sind, zu absorbieren und zu verstärken. Kritiker argumentieren, dass dies zu einer unverhältnismäßigen Zielgruppenbildung und einer übermäßigen Polizeiarbeit in bestimmten Gemeinschaften führen könnte, insbesondere bei ethnischen Minderheiten und wirtschaftlich benachteiligten Gruppen. Ein vernichtender Bericht von Amnesty International vom Februar 2025 stellte explizit fest, dass prädiktive Polizeisysteme in Großbritannien „Rassismus verstärken“ und einen negativen Rückkopplungszyklus erzeugen, in dem bereits bestehende Diskriminierung verstärkt wird. Die Live-Gesichtserkennungstechnologie (LFR) der Metropolitan Police wurde beispielsweise bereits mit Vorwürfen des Rassenbias und der Fehlidentifizierung von schwarzen und ethnischen Minderheiten konfrontiert.

Die mangelnde Transparenz und Rechenschaftspflicht, die vielen KI-Algorithmen eigen ist, verschärft diese Bedenken zusätzlich. Die undurchsichtige Natur, wie diese Systeme Entscheidungen treffen, untergräbt das öffentliche Vertrauen und erschwert es Einzelpersonen oder sogar rechtlichen Körperschaften zu verstehen, warum bestimmte Maßnahmen ergriffen werden. Dies hat zu dringenden Forderungen nach robusten rechtlichen Rahmenbedingungen und einer stärkeren parlamentarischen Kontrolle geführt, um ethische Standards zu gewährleisten und unfaire Profilerstellung zu verhindern.

Tatsächlich geht der Vorstoß für KI in der Polizeiarbeit über die prädiktive Kartierung hinaus. Das Justizministerium entwickelt Berichten zufolge ein „Mordvorhersage“-Programm, das nun als „Datenaustausch zur Verbesserung der Risikobewertung“ umbenannt wurde und darauf abzielt, Personen zu identifizieren, die am wahrscheinlichsten einen Mord begehen, unter Verwendung persönlicher Daten. Auch dieses Projekt wurde von Aktivisten, die seine inhärente Voreingenommenheit gegenüber ethnischen Minderheiten und armen Bevölkerungsgruppen befürchten, als „erschreckend und dystopisch“ bezeichnet. Gleichzeitig werden KI-Tools auch zur Bekämpfung von Grooming-Banden eingesetzt, indem sie Fremdsprachen übersetzen und digitale Daten analysieren, um Muster zwischen Verdächtigen zu finden, was den breiten Anwendungsbereich der KI-Integration in die Strafverfolgung verdeutlicht.

Trotz des Beharrens der Regierung auf den Vorteilen der Technologie für die öffentliche Sicherheit können die zunehmenden ethischen und menschenrechtlichen Bedenken nicht ignoriert werden. Es bleibt die Frage, ob das Vereinigte Königreich die Macht der KI zur Kriminalprävention nutzen kann, ohne grundlegende Freiheiten zu opfern und systemische Vorurteile in das Gefüge seines Justizsystems einzubetten.