Digitale Polizeiarbeit in Los Angeles Die Verbrecherjagd der Zukunft ist schon gescheitert

Verbrechen verhindern, bevor sie passieren - das war das Ziel der Polizei in Los Angeles. Doch die "Operation LASER" offenbarte die Probleme datengestützter Prognosen: Zwei Gruppen gerieten besonders ins Visier der Ermittler.
Schwarze und Latinos werden in den USA besonders häufig von der Polizei gestoppt - hier kontrolliert ein Polizist einen jungen Mann in LA auf Gang-Tattoos

Schwarze und Latinos werden in den USA besonders häufig von der Polizei gestoppt - hier kontrolliert ein Polizist einen jungen Mann in LA auf Gang-Tattoos

Foto: Lucy Nicholson / REUTERS

"Wie Tumore" wollte die Polizei von Los Angeles Schwerkriminelle und Gangmitglieder im Blick behalten. Mithilfe des Überwachungsprogramms "Operation LASER" sollten sie aus gewaltgeplagten Vierteln entfernt werden - mit "laser-ähnlicher Präzision", wie es in einer Projektbeschreibung  heißt. Die übrigen Bewohner sollten dabei möglichst unbeschadet bleiben. Markige Worte für ein ambitioniertes Projekt - doch so sauber wie geplant verlief die Operation nicht.

Mitte Dezember an die Öffentlichkeit gelangte Daten offenbaren, dass fast ausschließlich Latinos und Schwarze überwacht wurden. Und der Aufstieg und Fall von "Operation LASER" wirft ein Schlaglicht auf die Probleme von Predictive Policing weltweit - datengestützte Prognosen, die versprechen, die Wahrscheinlichkeit zukünftiger Verbrechen an bestimmten Orten oder die potenzielle Gefährlichkeit von Personen zu berechnen.

Die Bürgerrechtsorganisation "Stop LAPD Spying Coalition" hatte nach einer Klage gegen die Polizei von Los Angeles Dokumente erhalten, die eine rassistische Verzerrung belegen, darunter eine Liste mit 679 Zielpersonen. "Die Daten zeigen, dass 89 Prozent der überwachten Personen People of Color, also nicht weiß sind", sagt Hamid Khan, der Gründer der Organisation dem SPIEGEL. Mit insgesamt 44 Prozent schwarzen Zielpersonen sei der Fokus auf die schwarze Bevölkerung "überwältigend", so Khan. "Die schwarze Gemeinschaft hat in Los Angeles nur einen Anteil von rund neun Prozent an der Gesamtbevölkerung, also ist es eine Verzerrung von 5:1."

Fehlende Erfolgsbeweise

Prognosesoftware soll theoretisch objektivere Einschätzungen liefern als Polizeibeamte - und eine gezieltere und kostensparende Polizeiarbeit ermöglichen. An der Zuverlässigkeit der Vorhersagen bestehen jedoch Zweifel, unabhängige Erfolgsbeweise existieren nicht. Dennoch hat sich Predictive Policing weltweit verbreitet, auch in Deutschland. Sicherheitsbehörden versuchen hierzulande etwa mit RADAR-iTE  die Gefährlichkeit von Terrorverdächtigen zu berechnen. Ein halbes Dutzend Landeskriminalämter setzt zudem auf Einbruchsvorhersagen.

Polizisten im Einsatz in Los Angeles

Polizisten im Einsatz in Los Angeles

Foto: GABRIEL BOUYS / AFP

"Wie gut das Einkreisen von Kriminalitäts-Hotspots funktioniert, weiß man nicht, weil die Wirkung sehr schwer messbar ist", warnt der Tech-Experte Tobias Knobloch in einer Studie der Stiftung Neue Verantwortung und der Bertelsmann Stiftung zu Predictive Policing in Deutschland . Jeder Erfolg sei spekulativ, weil er im Ausbleiben von Kriminalität besteht, so Knobloch. Zudem ließen sich "andere mögliche Einflussfaktoren" nicht so isolieren, "dass man Wirkungen unmittelbar auf Predictive Policing zurückführen" könne. Auch Prognosen zur Gefährlichkeit oder zum Rückfallrisiko von Kriminellen  oder Verdächtigen sind umstritten.

Rankings von Schwerkriminellen

In amerikanischen Metropolen wie Los Angeles und Chicago untersuchen mittlerweile polizeiliche Aufsichtskommissionen die Programme - reichlich spät.

"Operation LASER wurde lange eingesetzt, ohne dass außerhalb der Polizei irgendjemand wusste, was da abläuft und ohne zu verstehen, dass gerade ein Paradigmenwechsel zu datenbasierter Polizeiarbeit stattfindet", sagt Hamid Khan. Von einem Gemeinschaftszentrum in der Skid Row aus, jenem Stadtviertel von Los Angeles, in dem Tausende Obdachlose auf der Straße leben und ständig Polizeikontrollen stattfinden, erforscht Khan seit 2010 mit einem Team von Freiwilligen und Betroffenen den Überwachungsapparat des LA Police Department (LAPD) - so stieß er auf "Operation LASER".

Mit Fördermitteln aus der "Smart Policing Initiative" des US-Justizministeriums hatten das LAPD und die private IT-Firma Justice & Security Strategies 2009 begonnen, zu analysieren, in welchen Stadtgebieten in den Vorjahren die meisten Schießereien und Vorfälle mit Waffengewalt gemeldet wurden. Dabei wurden Hotspots mit hohen Kriminalitätsraten und "Anchor Points" wie Shopping-Malls, Parks, Obdachlosenunterkünfte oder Alkohol-Geschäfte identifiziert.

Im September 2011 lief "Operation LASER" zunächst in der Newton Division an - und wurde dann nach und nach auf weitere Stadtviertel ausdehnt.

Im Rahmen des "Chronic Offender Program" erstellte die Polizei zudem für jedes Gebiet ein Ranking mit mindestens zwölf Serientätern, auf die sich die Polizeiarbeit konzentrieren sollte. Für das Scoring wurden Punkte nach Kriterien wie Gangmitgliedschaft, Gewalttaten in der Vergangenheit, Verhaftungen, Bewährungsstrafen oder kürzliche "Polizeikontakte" addiert. In die Erstellung von personenbezogenen Profilen flossen zudem Analysen mit Software der umstrittenen Firma Palantir ein, die auch in Europa zunehmend zum Einsatz kommt  und die etwa verschiedene Polizeidatenbanken scannt.

Der Fokus auf kleine Gruppen von Schwerkriminellen sollte auch das Rambo-Image des LAPD  vergessen machen, das lange als Amerikas brutalster und rassistischster Polizeiapparat galt und das mit dem Rampart-Skandal  oder Massenverhaftungen im Zuge der "Operation Hammer" für Aufsehen sorgte.

Die Polizei stehe mittlerweile unter Rechtfertigungsdruck, glaubt auch Hamid Khan: "Es ist eine Evolution, dass das LAPD jetzt sagt: Wir wollen nicht die ganze Community stören, sondern wir kommen, um die Schlimmsten der Schlimmen zu holen." Für ihn ist Predictive Policing dennoch kein echter Wandel hin zu einer faireren Polizeiarbeit, sondern "eine pseudowissenschaftliche Maskerade für die Kriminalisierung und Überwachung gesellschaftlicher Minderheiten - eine Art Formel, mit der die Polizei der Öffentlichkeit gegenüber begründen kann, warum sie tut, was sie tut".

Vernichtendes Urteil der Polizei-Aufsichtskommission

Nach viel öffentlicher Kritik hat auch die Polizeikommission "Operation LASER" inzwischen eine vernichtende Bilanz ausgestellt. Sie warnt davor, Schlüsse aus den Daten zum angeblichen Erfolg des Programms zu ziehen. Die Daten weisen zahlreiche Widersprüche auf, auch die Präsenz der Polizei in den Schwerpunktgebieten war offenbar begrenzt. Der Kommission zufolge wurde offenbar ein Großteil der per GPS automatisch erfassten Anwesenheitszeiten der Polizei in den "Hotspots" durch geparkte Autos erzeugt - oder Polizisten, die an dem Ort vorbeifuhren.

Zudem prangert die Kommission gravierende Inkonsistenzen bei der Verwaltung des "Chronic Offender Program" an, "insbesondere in Bezug auf die Auswahl- und Dokumentationspraktiken von Gebiet zu Gebiet", wie sie in ihrem Ende März veröffentlichten Untersuchungsbericht  schreibt.

"Diese Unterschiede scheinen auf einen Mangel an zentralisierter Aufsicht sowie auf einen Mangel an formalisierten und detaillierten Protokollen und Verfahren zurückzuführen zu sein, heißt es. Die meisten als "Wiederholungstäter" kategorisierten Personen hätten demnach wenige oder keine Polizeikontakte gehabt. Einige der Zielpersonen seien zwar kontrolliert oder verhaftet worden - dies sei aber nicht klar auf "Operation LASER" zurückzuführen.

Allein Kriterien wie Gangmitgliedschaft, die auch in Predictive Policing einfließen, offenbaren, wie problematisch die Einstufung von Kriminellen ist. Auch US-Gangdatenbanken sind oft veraltet, fehlerhaft . Viele Menschen werden kriminalisiert, ohne jemals verhaftet worden zu sein - und Afroamerikaner und Latinos sind überproportional vertreten. Ein Prüfbericht von 2016  offenbarte, dass Kaliforniens Gangdatenbank "CalGang System" zahlreiche Fehler enthielt - sogar Babys waren darin registriert, die angeblich zugegeben hatten, Gangmitglieder zu sein.

Algorithmen als Alibi

Technologien wie Predictive Policing verschleiern Ruha Benjamin zufolge Rassismus: "Algorithmen schaffen ein Hightech-Alibi für das routinemäßige Racial Profiling, Schikanen und die Besetzung von schwarzen Stadtvierteln", sagt die Professorin von der Princeton University dem SPIEGEL. "Sie verbergen Schichten historischer und anhaltender Diskriminierung, die die Input-Daten und Designannahmen automatisierter Entscheidungssysteme prägen, unter einer täuschend einfachen Bewertung." Dieser "rassistische Minimalismus" führe dazu, dass Diskriminierung zunehmend unentdeckt bleibe - dabei aber nicht weniger tödlich sei.

Auch Kate Crawford vom AI Now Institute an der New York University warnt davor , dass Software durch den Bezug auf historische Daten einen "Teufelskreis" fortsetze, "indem die Polizei ihre Präsenz an den Orten erhöht, an denen sie bereits tätig ist oder überproportional patrouilliert". In diesen Gebieten fänden dann immer mehr Verhaftungen statt.

"Operation LASER" wurde mittlerweile gestoppt. Fragen des SPIEGEL dazu hat das LAPD bisher nicht beantwortet. In einem Memo  kündigte der Polizeichef Michel Moore bereits an, zukünftig auf "Precision Policing" umzuschwenken - ein älteres, relativ schwammiges Konzept , das einerseits wie Predictive Policing den Fokus auf die kleine Gruppe von Schwerkriminellen legt, andererseits auf die Zusammenarbeit mit der "Community" setzt. Die Trümmer von "Operation LASER" dürften dafür aber nicht die beste Voraussetzung sein.