Künstliche Intelligenz Facebooks Forscher zweifeln an Fähigkeiten der Hass-Erkennung

Facebooks KI lösche nur einen Bruchteil aller Hass-Postings und verwechsle Bilder vom Autowaschen mit Schießereien, heißt es in einem Medienbericht. Der Konzern sagt, die Interpretation greife zu kurz.
Facebook-Dienstleister für Content-Moderation in Deutschland: »Verbreitung des Inhalts reduzieren« (Archivbild)

Facebook-Dienstleister für Content-Moderation in Deutschland: »Verbreitung des Inhalts reduzieren« (Archivbild)

Foto: Soeren Stache/ dpa

Das »Wall Street Journal« hat seine Artikelreihe zu den »Facebook Files« (Facebook-Akten) fortgesetzt und dabei die Leistungsfähigkeit der automatisierten Hatespeech-Erkennungssysteme des Konzerns infrage gestellt. Unter Berufung unter anderem auf firmeninterne Dokumente, die von der Whistleblowerin Frances Haugen übergeben wurden, schreibt die Zeitung : »Künstliche Intelligenz hat nur minimalen Erfolg beim Entfernen von Hassrede, Gewaltdarstellungen und anderen problematischen Inhalten.«

In Unterlagen von 2019 finden sich demnach Beispiele für konkrete Schwierigkeiten. Dazu gehören etwa Probleme der Erkennungssysteme, Aufnahmen von blutigen Hahnenkämpfen und Autounfällen zu identifizieren, die gegen Facebooks Community-Standards verstoßen. Auch würden Videos von Schießereien nicht immer erkannt, harmlose Clips von einer Autowäsche hingegen fälschlicherweise als Schießerei interpretiert.

Vor allem aber stehen in den Dokumenten Zahlen, die Facebooks Erzählung von seiner mittlerweile größtenteils automatisierten Aufräumarbeit auf den ersten Blick zu widersprechen scheinen.

2019 schätzte ein Facebook-Forscher dem Bericht zufolge, dass die KI nur zwei Prozent aller Hass-Inhalte, die auf Facebook von jemanden gesehen wurden, lösche. Im Sommer dieses Jahres ging ein anderes Facebook-Team davon aus, dass es zwischen drei und fünf Prozent sind – und nur 0,6 Prozent aller Inhalte, die gegen Facebooks Richtlinien zu Gewalt und Aufrufen zu Gewalt verstoßen.

Gelöschte Inhalte seien der falsche Maßstab, sagt Facebook

Doch Facebook weist die Darstellung der Zeitung zurück. Wichtig sei nicht, wie viel die KI lösche. Sondern das, was Facebook »prevalence« nennt – Verbreitung. Also wie viel Problematisches die Nutzerinnen und Nutzer tatsächlich zu sehen bekommen. Diese Zahl liege bei 0,05 Prozent: Von 10.000 Views seien nur noch fünf Hassrede. An dieser Bilanz habe KI einen großen Anteil, weil sie helfe, die nicht erlaubten Inhalte zu erkennen, bevor Nutzerinnen und Nutzer sie melden. Automatisch gelöscht würden aber nur eindeutige Fälle, schreibt Guy Rosen, Facebooks Vice President of Integrity, in einem Blogpost .

»Wir müssen uns sicher sein, dass es sich um Hatespeech handelt, bevor wir etwas entfernen«, heißt es da. »Wenn etwas Hatespeech sein könnte, wir aber nicht sicher genug sind, kann unsere Technik die Verbreitung des Inhalts reduzieren. Oder sie empfiehlt Gruppen, Seiten und Nutzer nicht mehr, die regelmäßig solche Inhalte posten. Außerdem nutzen wir Technologien, um Inhalte für die manuelle Überprüfung zu markieren.« Kurz: »Sich nur auf gelöschte Inhalte zu konzentrieren, ist der falsche Weg, unseren Kampf gegen Hatespeech zu bewerten.«

Die Zeitung erklärt Facebooks Ansatz, zweifelhafte Inhalte vor allem weniger sichtbar zu machen, schreibt aber dazu: »Die Konten, die dieses Material posten, kommen ungestraft davon.« Zudem wirft sie Facebook vor, seine Zahlen geschönt zu haben. 2019 habe der Konzern nicht nur die Zahl der Arbeitsstunden seiner externen Moderationsteams reduziert, sondern auch »angefangen, einen Algorithmus einzusetzen, der dazu führte, dass ein größerer Anteil von Meldungen durch Nutzer ignoriert wurde, weil das System einen Verstoß für unwahrscheinlich hielt«. Außerdem habe Facebook den Beschwerdeprozess umständlicher gemacht, was die Zahl der gemeldeten Inhalte deutlich verringert habe.

Ein Facebook-Sprecher sagte dem »Wall Street Journal«, das alles habe die Effizienz des Systems steigern sollen. Der Umbau des Beschwerdeprozesses sei zudem teilweise wieder zurückgenommen worden.

pbe
Die Wiedergabe wurde unterbrochen.