Hassbeiträge bei Facebook Moderatoren beklagen sich über Fehler im Regelwerk

In knapp zehn Sekunden muss ein Moderator angeblich entscheiden, ob ein Beitrag bei Facebook gelöscht wird oder nicht. Und das Regelwerk dazu ist laut einem Bericht ein unübersichtlicher und fehlerhafter Flickenteppich.

Mobilnutzer vor Facebook-Logo
REUTERS

Mobilnutzer vor Facebook-Logo

Von


Rassistische Seiten sperren, Hassbotschaften erkennen und beleidigende Bilder löschen: Die Moderatoren bei Facebook haben sicher keinen leichten Job. Doch das soziale Netzwerk macht es den Mitarbeitern womöglich noch schwerer, diese Arbeit auszuführen. Denn das Regelwerk besteht offenbar aus Hunderten Excel-Dateien und PowerPoint-Folien. Damit fühlen sich Moderatoren überfordert.

Das geht aus einem Bericht der "New York Times" hervor, die von einem Facebook-Mitarbeiter rund 1400 Seiten des geheimen Regelwerks überlassen bekommen hat. Der anonyme Mitarbeiter fürchte, dass Facebook zu viel Macht mit zu wenig Überblick ausübe und zu viele Fehler mache. Die Regeln gelten demnach für 7500 Prüfer weltweit, eine Sprecherin teilte dem SPIEGEL auf Anfrage mit, dass 15.000 Moderatoren beauftragt seien.

Regelmäßig gibt es laut dem Bericht ein Treffen einiger Dutzend Mitarbeiter, um die Regeln für die Moderatoren auszuarbeiten. Bei diesen Sitzungen wird festgelegt, was in Seitenbeschreibungen oder Statusmeldungen und auf Bildern erlaubt ist - und welche Beiträge tabu sind. Anwälte und Entwickler versuchten, komplexe Fragen mit einem einfachen Ja oder Nein zu beantworten.

Doch dafür ist die Realität meist zu vielschichtig: Denn während Auberginen- und Pfirsich-Emojis harmlose Hinweise auf Essen sein können, handelt es sich laut Regelwerk in manchen Fällen auch um "sexualisierten Text". Der Tränen lachende Smiley kann auch ein Zeichen für Onlinemobbing sein und Tierbilder können als Beleidigung eingesetzt werden. Alleine um Hassbeiträge zu erkennen, gebe es in dem Regelwerk "200 verwirrende, mit Jargon vollgestopfte Seiten", heißt es in dem Bericht.

Kaum Zeit für eine Bewertung

Problematisch sei außerdem, dass viele Mitarbeiter ungeschult seien und sich auf Google-Übersetzungen verlassen müssten. Immer wieder komme es zu Fehlern. So seien Spendenaufrufe für Opfer eines Vulkanausbruchs in Indonesien abgebrochen worden, weil eine Gruppe gespendet habe, die auf dem internen Facebook-Index steht. Und in Myanmar habe aufgrund eines Fehlers im Regelwerk monatelang eine Extremistengruppe auf der Plattform bleiben dürfen.

Offenbar haben die Moderatoren auch nur sehr wenig Zeit, um Statusmeldungen zu bewerten. Rund 1000 Beiträge müsse ein Prüfer pro Tag bearbeiten, heißt es im Bericht unter Berufung auf mehrere Mitarbeiter. Es blieben für Textbeiträge etwa acht bis zehn Sekunden Zeit, etwas länger für Videos. Für einen prüfenden Blick in die umfangreichen Unterlagen reicht das kaum.

Gegenüber der "New York Times" äußert ein anonymer Moderator seinen Unmut darüber, dass die Regeln nicht immer Sinn ergeben würden. Manchmal führe das dazu, dass er Meldungen stehen lassen müsse mit der Angst, dass der Beitrag zu Gewalt führen könnte: "Es fühlt sich an, als würde man jemanden töten, weil man nicht gehandelt hat."

Facebook weist Anschuldigungen zurück

Facebook verweist unter anderem auf die große Anzahl von Beiträgen, die jeden Tag in der Timeline der Nutzer auftauchten. Eine Facebook-Managerin sagte gegenüber der "New York Times", dass bei Milliarden von Beiträgen jeden Tag "viele Fehler passieren, selbst wenn man eine Erfolgsquote von 99 Prozent hat". Eine Sprecherin teilte dem SPIEGEL mit, dass die Unterlagen ein falsches Bild abgeben würden. Sie seien nur für das Training gedacht, vor allem für ungewöhnliche Fälle.

Außerdem gebe es keine Mindestanzahl an Beiträgen, die überprüft werden müssten: "Es gibt kein Kontingent, das die Prüfer jeden Tag durcharbeiten müssen, und auch kein Zeitlimit, das die Entscheidung über einen Inhalt einschränkt."

In Ländern, in denen der Druck auf das Unternehmen größer ist, funktioniert die Kontrolle laut "New York Times" übrigens besser. So seien in Deutschland gleich Dutzende rechtsextremer Gruppen auf dem Index des sozialen Netzwerks, während im Nachbarland Österreich nur eine einzige Gruppe gesperrt sei. Auch in den USA würden mehrere rechte Gruppen blockiert, während in Russland und der Ukraine recht wenige Seiten gesperrt würden - obwohl es dort durchaus Gruppen gebe, die zu Gewalt neigten.

Mehr zum Thema


TOP
Die Homepage wurde aktualisiert. Jetzt aufrufen.
Hinweis nicht mehr anzeigen.