Hinter den Kulissen sozialer Netzwerke Die Schatten-Arbeiter

Community-Moderatoren filtern Terror, Hass und Pornografie aus sozialen Netzwerken, teils zu prekären Bedingungen. Eine US-Wissenschaftlerin hat die Branche erforscht - und warnt vor gravierenden Folgen.
Foto: Cecilie Arcurs/ Getty Images

Terroranschläge wie in Christchurch oder El Paso sind für soziale Netzwerke jedes Mal ein Stresstest: Videos und Bilder der Anschläge sowie Screenshots davon werden Hunderttausendfach online geteilt und immer wieder neu hochgeladen. Die Zunahme des Materials, aber auch Öffentlichkeit und Politik erhöhen den Druck auf Community-Moderatoren, Inhalte möglichst schnell aus dem Internet zu entfernen. Oder zu verhindern, dass sie überhaupt erst hochgeladen werden.

"In den letzten 15 Jahren sind die ganzen Tech-Konzerne ziemlich abgehoben. Der Fokus lag dabei stark auf Technologie und Innovation, sodass schädliche Nebeneffekte außer Acht und für später liegengelassen wurden - aber später ist jetzt", sagt die Wissenschaftlerin Sarah T. Roberts, Assistenzprofessorin für Informationswissenschaften an der University of California (UCLA), dem SPIEGEL. "Die Firmen kämpfen nun mit einem Defizit und die aus ihrer Sicht einfachste Lösung ist, billige menschliche Arbeit einzusetzen."

Roberts erforscht die Arbeitsbedingungen von Content-Moderatoren aus Ländern wie den USA und den Philippinen seit 2010. In ihrem kürzlich veröffentlichten Buch "Behind the Screen: Content-Moderation in the Shadows of Social Media" beschreibt sie die diverse Dienstleistungsbranche, die rund um Content-Moderation gewachsen ist. Und gibt einen Einblick in den oft belastenden Alltag der Arbeiter hinter den Kulissen, die Plattformen von Terror, Hass, Pornografie und anderen Inhalten zu befreien versuchen.

Anzeige

Behind the Screen: Content Moderation in the Shadows of Social Media

Für 25,20 € kaufen
Produktbesprechungen erfolgen rein redaktionell und unabhängig. Über die sogenannten Affiliate-Links oben erhalten wir beim Kauf in der Regel eine Provision vom Händler. Mehr Informationen dazu hier

Die Erforschung und Entwicklung automatisierter Filtersysteme können sich Roberts zufolge nur die größeren Firmen leisten, doch auch Tech-Giganten wie Facebook seien immer noch auf menschliche Content-Moderatoren angewiesen - vor allem für "komplizierte Entscheidungen, die über binäre Ja/Nein-Fragen hinausgehen, bei denen differenziert beurteilt werden muss, oder wo es um Geschmacksfragen geht".

Unter dem Radar

Die Content-Manager sind in der Regel nicht direkt bei den sozialen Netzwerken selbst angestellt. "Mich hat überrascht, dass die Leute, die dieselbe Arbeit machen, in ganz unterschiedlichen industriellen Sektoren arbeiten: manche als Dienstleister, die aber Tür an Tür mit Festangestellten am Unternehmenssitz arbeiten, andere als Freelancer für spezialisierte Firmen. Es gibt Callcenter, aber ebenso Arbeitsvermittlungsplattformen für Mikroaufgaben, wie Amazon Mechanical Turk", sagt Roberts über die Content-Management-Branche, "die Arbeit ist Patchwork-artig über all diese Sektoren hinweg, aber auch geografisch zerstreut."

Langsam konsolidiere sich der Markt aber, multinationale Dienstleister wie Accenture entdeckten das lukrative Geschäft für sich und kauften auch kleinere Firmen auf.

Sarah T. Roberts: "In der Tech-Branche zu arbeiten, kann auch bedeuten, Müll für Tech-Konzerne zu entsorgen"

Sarah T. Roberts: "In der Tech-Branche zu arbeiten, kann auch bedeuten, Müll für Tech-Konzerne zu entsorgen"

Foto: Stella Kalinina

"Es gibt diese ganze Schattenbelegschaft, die häufig nicht offiziell bei den Tech-Unternehmen angestellt ist und die daher nicht erfasst wird", sagt Roberts. Allein bei Google übersteigt laut Forbes  die Zahl ausgelagerter oder nur temporär beschäftigter Mitarbeiter, zu denen auch Content-Moderatoren zählen, die festangestellte Belegschaft von rund 100.000 Mitarbeitern - deren Konditionen schlechter sind als die von Festangestellten.

Die größeren, zentralen Content-Management-Dienstleister aus dem Silicon Valley offerieren Roberts zufolge Gehälter auf Mindestlohnniveau - stellen aber relativ hohe Forderungen und setzen etwa einen Universitätsabschluss voraus. "Es gab verschiedene Faktoren, die die Mitarbeiter verletzlich machen: Sie waren frische Studienabgänger, hatten Abschlüsse in Literatur, Wirtschaft oder Geschichte und massive Schulden durch die Studienkredite", sagt Roberts über ihre Forschung im Silicon Valley. "Sie hatten das Gefühl, einen Tech-Job ergattert zu haben - aber in der Tech-Branche zu arbeiten, kann auch bedeuten, Müll für Tech-Konzerne zu entsorgen. Und an diesem Ende befinden sich Content-Moderatoren."

An der Frontlinie - aber ohne Einfluss

Trotz ihrer oft guten Bildung hatten die von ihr interviewten Content-Moderatoren keine Einflussmöglichkeiten auf Arbeitsabläufe oder inhaltliche Entscheidungen, was viele frustriert. Die Community-Richtlinien legen fest, was als akzeptabel gilt. Ein Mitarbeiter beschwerte sich etwa mehrfach bei Vorgesetzten, dass Blackfacing zugelassen wurde, obwohl es rassistisch ist.

"Den Moderatoren sind oft die Hände gebunden. Die Richtlinien reflektieren nicht nur, was richtig oder falsch sein sollte oder ethische oder politische Positionen des Unternehmens, sondern auch wirtschaftliches Kalkül", sagt Roberts. Die Firmen kalkulieren laut ihrer Darstellung, was ein Blackfacing-Verbot für die Arbeitsbelastung von Content-Moderatoren oder verlorene Einnahmen bedeuten würde, wenn die Klicks für monetarisierte Blackfacing-Videos entfallen. "Diese Firmen sind quasi Werbeagenturen. Und es gibt wenige Firmen, die so empfänglich für öffentliche Meinung sind wie Werbeagenturen", so Roberts.

Die Community-Moderatoren könnten wenig dagegen ausrichten, dass sie Inhalte online lassen müssen, die sie für inakzeptabel halten - und manchmal auch wegfiltern müssen, was sie relevant finden. Die unsicheren Arbeitsverhältnisse und die Zerfaserung der Branche über verschiedene Arbeitsformen und Kontinente hinweg führen laut dem Buch dazu, dass die Mitarbeiter sich kaum organisieren und gemeinsam für bessere Bedingungen kämpfen können.

Für Teilbereiche wie den Umgang mit Kinderpornografie haben sich demnach große Tech-Konzerne in der Technology Coalition  zusammengeschlossen und etwa den Leitfaden "Employee Resilience Guidebook for Handling Sexual Abuse Images" entwickelt. Doch Initiativen, die auch externe Dienstleister und vor allem betroffene Content-Moderatoren einschließen, fehlten bisher.

Eine Generation traumatisierter Content-Moderatoren

Mit den psychischen Folgen ihrer Arbeit werden die Moderatoren laut der Forscherin meist alleingelassen. "Eines der Facebook-Callcenter, die ich besucht habe, hatte ein Beratungsangebot vor Ort, aber das ist keine globale Norm", sagt Roberts. "Es gibt auch an vielen Orten kulturelle Barrieren, die Content-Moderatoren davon abhalten, Beratungsangebote wahrzunehmen, auch in den USA."

Content-Moderatoren schildern in "Behind the Screen", wie sie nicht einmal untereinander auf der Arbeit über die brutalen Bilder sprachen und auch ihren Partnern verheimlichten, was sie in ihrem Alltag bewältigen müssen, um sie nicht zu belasten. "Du verbringst acht Stunden in diesem Drecksloch, sodass du es wirklich nicht noch in den Rest deines Lebens tragen möchtest", so Content-Moderator Josh. "Du denkst, es geht nicht noch schlimmer, und am nächsten Tag siehst du etwas noch Schrecklicheres." Die meisten Content-Manager lässt das Gesehene nicht los, manche betäuben sich mit Alkohol, andere berichten von Depressionen.

Selbst wenn Beratung am Arbeitsplatz angeboten wird, bleiben die Moderatoren skeptisch, sich zu öffnen und Probleme anzusprechen - weil sie befürchten, ihre Arbeitgeber könnten in Frage stellen, ob sie für ihren Job geeignet sind. "Die Leute zögern, nach Hilfe zu suchen", beobachtet Roberts. "Es ist schwierig, man müsste sie dazu verpflichten."

Die Nachfrage der sozialen Netzwerke nach digitalen Recyclingtruppen produziert eine ganze Generation potenziell traumatisierter Content-Filterer. Die zukünftigen Folgen und die gesellschaftlichen Kosten seien Roberts zufolge noch völlig unabsehbar. Ihr ist zudem keine Firma bekannt, die eine Langzeitstudie zur den Folgen von Content-Management auf die Mitarbeiter durchführt, zumal das Personal schnell wechselt und die Biografien der ehemaligen Moderatoren nicht mehr weiterverfolgt werden.

Mehr lesen über