Europäischer Polizeikongress Wie die Polizei mit Algorithmen experimentiert

Der Hype um künstliche Intelligenz ist auch bei der Polizei groß: Die Sicherheitsbehörden testen Automatisierung und Prognosewerkzeuge. Doch viele Fragen sind ungeklärt.
Ein als Einbrecher verkleideter Mann mit Bewegungsprofil (Symbolbild)

Ein als Einbrecher verkleideter Mann mit Bewegungsprofil (Symbolbild)

Foto: Daniel Bockwoldt/ dpa

Auch Barack Obama war auf dem Europäischen Polizeikongress in Berlin zu sehen - allerdings ein gefälschter: Bei einer Präsentation wurde Ermittlern und Vertretern von Sicherheitsbehörden gezeigt, wie leicht Betrüger sogenannte Deep Fakes erstellen können - täuschend echte, computergenerierte Videos von Personen, die etwas sagen oder tun, was allerdings nie stattgefunden hat. Für Ermittler kann das künftig zur Herausforderung werden.

Gleichzeitig erleichtert ähnliche Technologie den Behörden auch die Ermittlungen und spielt eine zunehmende Rolle in der deutschen Polizeiarbeit. Dazu gehören Gesichtserkennungssoftware, auf künstlicher Intelligenz (KI) basierende Videoanalyse und Programme, die Muster in Daten suchen oder die Wahrscheinlichkeit von Verbrechen vorhersagen.

Polizeieinheiten suchen etwa mit der Hilfe von Gesichtserkennungssoftware in Bild- und Videoaufnahmen nach Verdächtigen - entweder nach Straftaten oder per Live-Abgleich mit einer Fahndungsliste wie beim inzwischen abgeschlossenen Pilotversuch am Berliner Südkreuz.

Thomas Striethörster, Präsident der Bundespolizei Berlin, sprach sich auf dem Polizeikongress für "biometrische Gesichtserkennung an ausgewählten Bahnhöfen und Flughäfen" aus. Es liege an der Politik zu entscheiden, ob Gesichtserkennung zukünftig im Alltagsbetrieb erlaubt werden soll. "Wir haben genug Überwachungskameras. Aber wir hatten Sachverhalte, wo wir den Täter nicht erkannt haben", so Striethörster. Auch Attentäter Anis Amri sei an einer Kamera vorbeigelaufen, aber nicht erkannt worden.

Mehr als zwei Fehlalarme pro Stunde

Striethörster griff die Kritik an der Fehlerquote der Videoüberwachung beim Berliner Pilotversuch auf: "Ein Fehlerwert von 0,25 hört sich erst mal gut an, aber die Rolltreppe fahren pro Stunde 1000 Menschen herunter und zweieinhalb Mal pro Stunde wird ein Mensch so fälschlicherweise detektiert", so der Chef der Berliner Bundespolizei.

Eine Überlegung sei, zukünftig zwei Gesichtserkennungssysteme gleichzeitig einzusetzen und diese zu vernetzen - nur wenn beide anschlagen, solle ein Alarm ausgelöst werden. In einer zweiten Testphase wird in den kommenden Monaten am Südkreuz geprüft, wie gut Software potenziell gefährliche Situationen erkennen kann - wie beispielsweise stehengelassene Gegenstände, ungewöhnliche Bewegungen in Menschenmassen oder eine Person, die am Boden liegt.

Die Hamburger Polizei sucht inzwischen automatisiert in Bild- und Videoaufnahmen nach Verdächtigen, die an Ausschreitungen während des Hamburger G20-Gipfels im Juli 2017 beteiligt waren. In einer Referenzdatenbank werden dafür biometrische Gesichtsabdrücke von Personen gespeichert, die im Bildmaterial aus Überwachungskameras, aber auch in Handyvideos von Zeugen zu sehen sind. Allerdings zählen dazu auch viele Personen, die während des G20-Gipfels in Hamburg etwa nur zur Arbeit gefahren sind. Hamburgs Datenschutzbeauftragter Johannes Caspar hat daher angeordnet, die Datenbank zu löschen.

Bei vermummten Tätern wird es für die Software schwierig

"Es sind im Zusammenhang mit dem G20-Gipfel insgesamt 100 TB an Bild- und Videomaterial angefallen. Wenn man einen Sachbearbeiter zwingen würde, alles durchzugucken, wären das 60 Jahre", begründet Thomas Radszuweit von der Ermittlungseinheit "Schwarzer Block" beim LKA Hamburg den Nutzen.

Allein 17 Terabyte in das System zu importieren habe sieben Wochen gedauert. Bei vermummten Tätern stoße die Software allerdings an ihre Grenze - dann müsse ein Ermittler etwa Indizien wie Kleidung in verschiedenen Aufnahmen abgleichen.

Auch in Bayern erleichtert Gesichtserkennung die Identifizierung von Fotos von Verdächtigen, die digitale Einschätzung wird aber jedes Mal von einem Experten geprüft: "Das Gesicht wird vermessen, nur der Lichtbildexperte kann aber mit 99,9 Prozent sagen, ob es sich tatsächlich um die Person handelt", sagt Bernhard Egger vom bayerischen LKA. 148 Ermittlungsverfahren seien so im vergangenen Jahr aufgeklärt worden.

Deutschland liegt beim Einsatz von Automatisierungssoftware noch weit hinter anderen Ländern wie den USA zurück. Die Sicherheitsbehörden seien "in der Initialphase", sagt der Experte für Verwaltungsdigitalisierung bei Capgemini, Tobias Knobloch. "Erste Gehversuche wie etwa bei Predictive Policing finden statt. Bei der Gefahrenabwehr ist natürlich mehr möglich und da wird auch schon mehr gemacht, wobei wir aufgrund von Geheimhaltung davon nicht viel wissen."

Kritiker fordern Leitplanken für den Technikeinsatz

Für bisher sechs Landeskriminalämter berechnet eine Prognose-Software die Wahrscheinlichkeit von Einbrüchen und deckt Muster im Vorgehen der Täter auf . Die Wirkung der Software ist schwer belegbar, Knobloch sieht dennoch einen positiven Nebeneffekt: "Um Prozesse automatisieren oder digitalisieren zu können, muss ich sie explizit machen, zerlegen, aufdröseln, hinterfragen, vereinfachen, optimieren. All das würde ohne den Druck des Digitalen vielfach nicht passieren", sagte er dem SPIEGEL.

Auf dem Polizeikongress wurde auch KI-basierte Software wie die "Terror Cell Identification" (TCI) präsentiert, die Radikalisierungsverläufe bei Terrorverdächtigen berechnen soll. Das hessische LKA setzt bereits die Analyseplattform "Hessendata" ein, die auf dem Gotham-System der umstrittenen Analysefirma Palantir basiert. Daten aus verschiedenen Quellen wie Polizeidatenbanken oder sozialen Medien werden ausgewertet, Netzwerke visualisiert . Zukünftig soll die Software auch in Bereichen wie organisierter Kriminalität und schweren Straftaten wie Mord angewandt werden.

Der Einsatz solcher Technologien stößt auf Kritik - auch auf dem Polizeikongress: Andreas Kleinknecht, Mitglied der Geschäftsleitung von Microsoft Deutschland, warnte davor, dass vor allem Gesichtserkennung und darauf aufsetzende Dienste "missbrauchsgefährdet" seien. Die Politik solle nicht "zum Reparaturbetrieb für fehlgeleitete KI-Entwicklungen werden, sagte Kleinknecht. Stattdessen müssten schnellstmöglich Leitplanken für den Einsatz der Technologie geschaffen werden - auch in der Polizeiarbeit.