Soziales Netzwerk Mitarbeiter zweifeln an Facebooks Methoden im Kampf gegen Hetze

Mit strikten Leitfäden will Facebook seine Löschteams auf Hass, Hetze und Fake-News vorbereiten. Doch laut einem Medienbericht betrachten viele die Aufgabe, die weltweite Flut an Beiträgen zu moderieren, als unlösbar.
Facebook-Logos unter der Lupe

Facebook-Logos unter der Lupe

Foto: Dado Ruvic/ REUTERS

Erschöpfte Mitarbeiter in den Löschteams und frustrierte Moderatoren: Ein Bericht des US-Magazins "Motherboard"  zeichnet ein düsteres Bild vom Kampf des sozialen Netzwerks Facebook gegen Hass, Hetze und Falschnachrichten. Demnach sehen Mitarbeiter des Konzerns, die anonym bleiben wollen, kaum eine Chance, die Flut an beleidigenden und hetzerischen Beiträge angemessen zu moderieren.

Die "Motherboard"-Autoren haben mehrere Monate damit verbracht, interne Dokumente auszuwerten und mit Mitarbeitern der Löschteams sowie hochrangigen Managern und externen Experten zu sprechen. Das Fazit: Das Unternehmen investiert viel in den Versuch, Probleme in gewaltigen Größenordnungen zu lösen. Dennoch führen die Moderatoren bei Facebook einen nahezu aussichtslosen Kampf gegen eine enorme Masse an Beiträgen. "Wenn die Mission weiterhin sein soll 'alle' zu verbinden, dann wird Facebook niemals das Problem lösen, seinen Inhalt zu moderieren", heißt es in dem Bericht.

Die zwei Milliarden Mitglieder des sozialen Netzwerks verfassen demnach mehr als zehn Millionen potenziell regelwidrige Statusmeldungen pro Woche, die überprüft werden müssen - und das in mehr 100 Sprachen.

Neben der Menge kommt hinzu, dass es extrem komplex sei, einheitliche Vorgaben für die weltweit eingesetzten Löschteams zu entwerfen. Selbst mit Diagrammen, an denen sich die Moderatoren mit Ja-und-Nein-Antworten durchhangeln können, bleiben laut dem Bericht häufig viele Fragen offen. Es gibt demnach etliche Grenzfälle, die sich nicht mit einem Leitfaden lösen lassen.

"Extrem schwierig, all das in einem Leitfaden schriftlich festzuhalten"

So sei es beispielsweise erlaubt, einen Staat mit ausschließlich weißen Bürgern zu fordern, während es verboten sei zu schreiben: "Ich bin ein Rassist." Auch die #MeToo-Debatte stelle die Moderatoren immer wieder vor ein Dilemma. Denn einerseits sei es wichtig, das Thema öffentlich zu diskutieren, andererseits dürfen laut den Richtlinien keine Menschen in Beiträgen diskreditiert werden. Ein anonymer Facebook-Moderator wird von "Motherboard" zitiert mit den Worten: "Es ist extrem schwierig oder unmöglich, all das in einem Leitfaden schriftlich festzuhalten."

Auch länderspezifische Gesetze und kulturelle Unterschiede erschweren den Job. So lässt es Facebook etwa in den USA zu, den Holocaust zu leugnen, während diese Aussage in Deutschland und acht weiteren Ländern gesetzlich verboten ist. Die Mitarbeiter können sich in solchen Fällen dafür entscheiden, Inhalte lokal auszublenden. Internen Dokumenten zufolge wird dafür zunächst geprüft, ob Facebook ein Gesetz brechen oder in einem Land womöglich komplett abgeschaltet werden könnte.

Software helfe Facebook zwar dabei, Fake-Profile und verbotene Inhalte wie Pornobilder und Gewaltfotos mit einer Trefferquote von fast 100 Prozent herauszufiltern. Doch schriftliche Beiträge würden dem Netzwerk große Probleme bereiten - vor allem, wenn es sich nicht um englische Begriffe handle. Lediglich 38 Prozent der verbotenen Aussagen werden demnach von Software herausgefiltert.

Die Größe seines Netzwerks wolle Facebook natürlich nicht aufgeben, heißt es im Artikel. Deshalb gleiche die Arbeit der Moderatoren einer Sisyphos-Aufgabe: "Den Schaden zu reparieren, der erst durch Facebooks Weltsicht und Geschäftsmodell möglich wurde, ohne etwas an der Weltsicht oder dem Geschäftsmodell zu ändern".

jbr