Forscherin zu Predictive Policing "Gefahr der Diskriminierung"

Ist Predictive Policing das Allheilmittel der Polizei? Nein, sagt Forscherin Lorena Jaume-Palasí. Bei mangelnder Kontrolle fürchtet sie schwere gesellschaftliche Schäden.

Polizei-Einsatz (Archiv)
DPA

Polizei-Einsatz (Archiv)

Ein Interview von Boris Kartheuser


Zur Person
  • Steffen Leidel, DW
    Lorena Jaume-Palasí ist Mitgründerin und Geschäftsführerin der gemeinnützigen Organisation AlgorithmWatch. Sie forscht zur Ethik der Digitalisierung und Automatisierung und befasst sich mit rechtsphilosophischen Fragen. Jaume-Palasí ist zudem Mitglied des Expertenrats für Künstliche Intelligenz und Big Data der spanischen Regierung.
  • Zur Website von AlgorithmWatch

SPIEGEL ONLINE: 2016 gab es in Deutschland mehr als 150.000 Wohnungseinbrüche. Um die Täter zu fassen, setzt die Polizei in immer mehr Bundesländern Predictive Policing ein. Das Allheilmittel der Ermittler?

Lorena Jaume-Palasí: Predictive Policing setzt ganz am Ende der kriminellen Kette an. Es hilft bestenfalls dabei, die kleinen Fische zu fangen, nicht aber, an die Köpfe im Hintergrund heranzukommen. Aber es kann helfen, die Ressourcen der Polizei effektiver einzusetzen.

SPIEGEL ONLINE: Sie klingen skeptisch. Wie bewerten Sie die verstärkte Nutzung von Predictive Policing?

Lorena Jaume-Palasí: Der Einsatz dieser Art von Software ist nicht grundsätzlich schlecht. So könnten die Algorithmen zum Beispiel möglichen Vorurteilen von Beamten entgegenwirken. Dazu muss aber sichergestellt sein, dass die Systeme unter Aufsicht operieren. Sonst besteht die Gefahr, dass entsprechend programmierte Algorithmen Personengruppen diskriminieren. Die Hersteller der meisten in Deutschland verwendeten Predictive-Policing-Lösungen legen ihren Quellcode nicht offen. Das finden wir sehr problematisch.

SPIEGEL ONLINE

SPIEGEL ONLINE: Welche Gefahren sehen Sie speziell beim Einsatz von kommerzieller Predictive-Policing-Software?

Jaume-Palasí: Es gibt bereits jetzt genügend Beispiele, dass Menschen von Algorithmen massiv diskriminiert werden. Der bekannteste Fall stammt aus den USA. Die Investigativ-Plattform ProPublica fand dort heraus, dass die sogenannte Compas-Software systematisch Schwarze benachteiligt. Richter lassen dieses Programm errechnen, wie hoch das Risiko ist, dass Straftäter rückfällig werden. Und diese Berechnungen dienen als Basis für ihr späteres Urteil. Eine solche Einseitigkeit bei einer Predictive-Policing-Software wäre fatal.

SPIEGEL ONLINE: Bislang arbeitet die deutsche Polizei allerdings nicht mit Daten einzelner Personen.

Jaume-Palasí: Dennoch können Nachteile für die Gesellschaft entstehen.

SPIEGEL ONLINE: Was sorgt Sie konkret?

Jaume-Palasí: Zum Beispiel, dass die Systeme Auswirkungen auf das soziale Gefüge einer ganzen Stadt haben könnten, wenn in bestimmten Gegenden plötzlich vermehrt Streife gefahren oder kontrolliert wird. Unter Umständen verursacht Predictive Policing so einen kollektiven Schaden.

Wer Predictive Policing einsetzt

SPIEGEL ONLINE: Freuen sich die Menschen nicht, wenn regelmäßig Polizisten in ihrem Viertel Patrouille fahren? Vor allem, wenn dort vermehrt Straftaten begangen worden sind?

Jaume-Palasí: Es gibt sicher Menschen, die vermehrte Kontrollen begrüßen. Bei anderen wirkt sich der häufige Anblick von Polizisten negativ auf das subjektive Sicherheitsgefühl aus. Es entsteht der Eindruck, in einer gefährlichen Gegend zu leben. Hinzu kommt ein ganz anderer Aspekt: Je öfter die Polizei ein Viertel kontrolliert, desto mehr Straftaten werden ihr auffallen - obwohl dort eventuell gar nicht mehr passiert als in Vierteln, die weniger unter Beobachtung stehen. Das verzerrt die Datenbank, mit der der Algorithmus arbeitet. Und das kann Auswirkungen auf das Zusammenleben haben, bis hin zu einer Veränderung des Immobilienmarktes. Daher ist es sehr wichtig, dass die Faktoren, nach denen die Software eingesetzt wird, transparent ausgewertet werden.

SPIEGEL ONLINE: Plädieren Sie gerade dafür, dass Kriminalität unentdeckt bleiben soll, damit der Immobilienmarkt stabil bleibt? Oder dafür, überall massiv die Polizeipräsenz zu erhöhen, damit das Dunkelfeld der Kriminalität gleichermaßen kleiner wird?

Jaume-Palasí: Weder noch. Ich plädiere für eine Überprüfung der Datenbanken, mit denen die Polizei arbeitet. Sie muss sicherstellen, dass die nicht verzerrt sind: Werden weniger bevölkerte Gegenden vergessen, in denen oft ältere Menschen mit geringem Einkommen wohnen? Sind die Gegenden mit einem hohen Ausländeranteil überrepräsentiert? Das würde dazu führen, dass Gegenden, die auch Polizeipräsenz benötigen, in Vergessenheit geraten, während andere Gegenden ungerechtfertigt zu sozialen Brennpunkten gemacht werden.

SPIEGEL ONLINE: Was schlagen Sie vor?

Jaume-Palasí: Die Predictive-Policing-Software muss überprüfbar sein. Das ist bei eingekauften Lösungen schwierig. Wünschenswert wäre deshalb, dass die Länder für die Polizei eigene Programme entwickeln. Die Entscheidungskriterien derartiger Programme müssen transparent sein. Eine begleitende Aufsicht, die die Datenbanken auf Diskriminierung überprüft, wäre ebenfalls notwendig.

SPIEGEL ONLINE: Warum gibt es das bislang nicht?

Jaume-Palasí: Die Software-Unternehmen wollen ihr Produkt schützen - und halten es daher geheim.

Softwareentwickler mit Prognosesoftware "Precobs" (Archivfoto)
dpa

Softwareentwickler mit Prognosesoftware "Precobs" (Archivfoto)

SPIEGEL ONLINE: Das Bundesverkehrsministerium hat zum Thema automatisiertes Fahren eine Ethikkommission eingerichtet. Wäre eine solche Kommission auch nötig für den Einsatz von Algorithmen in der Polizeiarbeit?

Jaume-Palasí: Wir würden uns eine solche Kommission wünschen, wenn sie denn tatsächlich mit Befugnissen ausgestattet würde. Derzeit beschäftigen sich in den Innenministerien und bei den Landesbehörden viel zu wenige Menschen mit Predictive Policing. Eine Ethikkommission müsste pluralistisch zusammengesetzt sein. Ethik darf nicht zum Feigenblatt werden.

SPIEGEL ONLINE: Noch ist das Vorgehen in den Bundesländern unterschiedlich geregelt. Auch die dabei genutzten Datenbanken sind nicht über Ländergrenzen hinweg auswertbar. Sollte sich das ändern?

Jaume-Palasí: Unbedingt. Die dezentrale Verwaltung von Daten birgt Gefahren. Wenn beinahe jedes Bundesland und jede Behörde anders arbeitet, steigt das Fehlerrisiko. Wohin diese Zersplitterung von Informationen führen kann, zeigen Fälle wie der von Anis Amri. Deshalb würde ich mir eine zentrale Verwaltung der Daten mit strengen Zugangsbeschränkungen und klarer Protokollierung wünschen. Das könnte auch verhindern, dass Daten in einzelnen Behörden unrechtmäßig gespeichert bleiben, obwohl sie längst hätten gelöscht werden müssen. Dieser Weg wird jetzt mit dem Regierungsprojekt "Polizei 2020" gegangen und er sollte aufmerksam begleitet werden.


Lesen Sie dazu auch:

Redaktion: Jörg Diehl



TOP
Die Homepage wurde aktualisiert. Jetzt aufrufen.
Hinweis nicht mehr anzeigen.