Terror-Erkennung Facebook wertet Aufnahmen von Polizei-Bodycams aus

Facebook hat Probleme, Gewalt in Liveaufnahmen zu erkennen. Der Konzern will seine KI-Software nun mit Daten aus Polizei-Körperkameras trainieren, um Schusswaffengewalt schneller aufzuspüren.

Bodycams filmen Polizeieinsätze live: Facebook will solche Aufnahmen künftig zur Verbesserung seiner Filtersysteme einsetzen (Symbolbild)
Shannon Stapleton / REUTERS

Bodycams filmen Polizeieinsätze live: Facebook will solche Aufnahmen künftig zur Verbesserung seiner Filtersysteme einsetzen (Symbolbild)

Von


Facebook hat in einer Mitteilung mehrere Maßnahmen angekündigt, mit denen der Konzern Gewalt und Terrorismus etwas entgegensetzen will. Facebook plant demnach unter anderem, Aufnahmen aus Polizei-Bodycams auszuwerten, um Livestreams von Terroranschlägen künftig besser zu erkennen. Die Ankündigung kam kurz vor einer Anhörung im US-Kongress am Mittwoch, in der Facebook zu seinem Umgang mit "Massengewalt, Extremismus und digitaler Verantwortung" Stellung nehmen muss.

Ab Oktober werden Polizeieinheiten wie die Londoner Metropolitan Police und Polizeibehörden aus den USA Facebook Aufnahmen ihrer Schusswaffentrainings zur Verfügung stellen, die dann zum Training von KI-Software benutzt werden sollen. So sollen Gewalt und Anschläge künftig auch in Livestreams schneller automatisch detektiert werden - beim Terroranschlag im neuseeländischen Christchurch war der Livestream des Anschlags nicht rechtzeitig entdeckt worden.

"Mit dieser Initiative wollen wir die Erkennung von realem, persönlichem Filmmaterial von gewalttätigen Ereignissen verbessern", heißt es in dem Blog-Eintrag von Facebook, "und vermeiden, dass andere Arten von Filmmaterial wie fiktive Inhalte aus Filmen oder Videospielen fälschlicherweise erkannt werden."

Beim Terroranschlag in Christchurch hatte der Angreifer in einem rund 17-minütigen Livestream dokumentiert, wie er mit seinen Waffen zu einer Moschee fuhr, diese stürmte und in der Moschee sowie in ihrem Umfeld Menschen erschoss. 200 Nutzer hatten den Anschlag über Facebook in Echtzeit verfolgt - gemeldet wurde das Video von Nutzern, aber erst zwölf Minuten nachdem der Stream beendet worden war.

Varianten schwierig zu entdecken

Facebook hatte in den ersten 24 Stunden nach dem Anschlag weltweit etwa 1,5 Millionen Videos vom Anschlag entfernt. Mehr als 1,2 Millionen Clips sind dem Konzern zufolge direkt beim Hochladen gesperrt worden. "Wir haben das ursprüngliche Facebook-Live-Video entfernt und gehasht, sodass andere Freigaben, die diesem Video optisch ähnlich sind, erkannt und automatisch von Facebook und Instagram entfernt werden", erklärte Facebook damals. "Einige Varianten wie Bildschirmaufnahmen waren schwieriger zu erkennen, sodass wir auch zusätzliche Erkennungssysteme einschließlich Audiotechnik eingesetzt haben."

Von der Auswertung der Bodycam-Daten erhoffen sich auch Polizisten, dass Terroranschläge oder deren Vorbereitung bereits während der Tat oder deren Vorbereitung erkannt werden: "Die Technologie, die Facebook zu entwickeln versucht, könnte helfen, Schusswaffenangriffe in einem frühen Stadium zu identifizieren und potenziell Polizisten auf der ganzen Welt bei ihrer Reaktion auf solche Vorfälle zu unterstützen", sagte Neil Basu, der Chef der Antiterroreinheit der Metropolitan Police.

Die Mitglieder des Schusswaffenkommandos trainieren laut einer Pressemitteilung der Polizei regelmäßig, wie man auf unterschiedliche Szenarien reagiert - von Terroranschlägen bis hin zu Geiselnahmen zu Lande, in öffentlichen Verkehrsmitteln und zu Wasser. Das von ihnen bereitgestellte Material zeige daher vielfältige Schützenperspektiven, heißt es.

Die Bodycam-Aufnahmen der Metropolitan Police sollen auch dem britischen Innenministerium zur Verfügung gestellt werden. Die Aufnahmen sollen auf diesem Weg mit weiteren Technologiefirmen geteilt werden können, die ebenfalls an Software arbeiten, um Livestreams von Angriffen mit Schusswaffen einzudämmen.

Erweiterter Terrorismusbegriff

Facebook hat diese Woche auch seine Definition von Terrorismus in den Richtlinien erweitert. Als Terrorismus gelten nun nicht mehr nur Anschläge, die aus politischen oder ideologischen Gründen durchgeführt werden, sondern auch Gewalttaten, die sich insbesondere gegen Zivilisten richten, mit dem Ziel, diese einzuschüchtern und zu bedrohen.

Der inländische Terrorismus (domestic terrorism) und rechtsextreme Inhalte von rassistischen Gruppen wie den White Supremacists waren lange keine Priorität von Facebook. Der Konzern hatte sich vor allem auf internationale Terrorgruppen wie den "Islamischen Staat" (IS) und al-Qaida konzentriert. Aus diesem Bereich sind Facebook zufolge in den letzten beiden Jahren mehr als 26 Millionen Inhalte entfernt worden.

Im März hatte Facebook nach dem Terroranschlag in Neuseeland und öffentlicher sowie politischer Kritik dann auch explizit Inhalte von rechtsextremen, rassistischen Gruppen verboten und angefangen, solche Inhalte verstärkt von Facebook zu entfernen.

"Wir haben mehr als 200 White-Supremacists-Organisationen von unserer Plattform verbannt, und wir verwenden eine Kombination aus KI und menschlicher Expertise, um Inhalte zu entfernen, die diese Organisationen loben oder unterstützen", so Facebook. Seit Mitte 2018 wird nach Angaben des Konzerns außerdem automatische Filtersoftware auch gegen solche Inhalte eingesetzt.



zum Forum...
Sagen Sie Ihre Meinung!

© SPIEGEL ONLINE 2019
Alle Rechte vorbehalten
Vervielfältigung nur mit Genehmigung


TOP
Die Homepage wurde aktualisiert. Jetzt aufrufen.
Hinweis nicht mehr anzeigen.