Content-Moderatorin Malgwi: Nach und nach auch Beiträge mit Kindesmissbrauch vorgelegt
Foto: [M] DER SPIEGEL; Fotos: Anadolu / Getty Images; Kolonko / Getty Images; PrivatDigitale Drecksarbeit »Bis ich es nicht mehr ertragen konnte«
Der Boom von Social Media und künstlicher Intelligenz hat in den vergangenen Jahren eine Schattenindustrie von Niedriglöhnern entstehen lassen. Sogenannte Content-Moderatorinnen, Datenannotierer und Klickarbeiter prüfen im Auftrag der Techkonzerne potenziell strafbare Inhalte und entscheiden darüber, ob Beiträge gelöscht werden. Oder sie klassifizieren Texte, Bilder und Videos, um damit das KI-Training zu unterstützen.
Das »Ding«-Magazin, das über Themen an der Schnittstelle von Internet, Gesellschaft und Kultur berichtet, hat dem oft wenig beachteten Thema eine ganze Ausgabe gewidmet , in der Angestellte aus dem Bereich zu Wort kommen. Manche treten mit Namen auf, andere anonym – wegen der strengen Geheimhaltungsklauseln, die ihnen eigentlich verbieten, Details der Arbeit öffentlich zu machen. Der SPIEGEL veröffentlicht hier Ausschnitte von zwei Erfahrungsberichten. Die Identität der ehemaligen Angestellten konnte der SPIEGEL verifizieren.
Kauna Malgwi, 30
Ich habe vier Jahre als sogenannte Content-Moderatorin gearbeitet. Im Büro fiel mir gleich das »F«-Logo im Flur vor meinem Arbeitsplatz auf. »F« für Facebook. Angestellt war ich zwar bei dem Unternehmen Sama, aber Facebook war unser Auftraggeber und ich damit für eine Zeit eine Art outgesourcte Mitarbeiterin von Facebook.
Zu Beginn schien mir der Job machbar und unkompliziert. Meine Aufgabe war es, zu prüfen, ob bestimmte Facebook-Beiträge auf der Plattform sein dürfen oder gegen die Regeln verstoßen und gelöscht werden müssen. Die Inhalte kamen aus aller Welt, auch aus Europa und den USA. In der ersten Woche bekam ich harmlose Inhalte angezeigt, doch dann kamen die Posts mit Gewalt und Selbstmord. Nach und nach wurden mir auch Beiträge mit komplizierten Hassrede-Fällen und Kindesmissbrauch vorgelegt.
Die belastenden Beiträge wurden immer mehr. Und nach wenigen Monaten bekam ich Panikattacken und Angstzustände. Zunächst bemerkte ich gar nicht, dass ich mit psychischen Problemen zu kämpfen hatte, obwohl ich selbst Psychologie studiert habe. Ich bekam Asthma und musste einen Inhalator benutzen. Gegen meine Schlaflosigkeit verschrieb mir der Arzt ein Antidepressivum. Schließlich nahm ich stark ab und wog nur noch etwa 46 kg. Wenn mich heute auf Fotos von damals sehe, kann ich nicht glauben, dass ich das bin.
Ich begann eine Psychotherapie. Aber wegen der Geheimhaltungsvereinbarung, die ich unterschreiben musste, musste ich mich zu der eigentlich so wichtigen Frage, wo ich arbeite und was ich mache, ausschweigen. Ich sagte meinem Therapeuten bloß, ich würde in einer IT-Firma arbeiten.
Als klar wurde, dass manche meiner Kollegen ähnliche Symptome wie ich hatten, begannen wir, darüber miteinander zu sprechen. Ich überlegte, zu kündigen. Aber das hätte ich mir nur erlauben können, wenn ich einen anderen Job in Aussicht gehabt hätte. Ich brauchte das Geld.
Im Jahr 2022 stand mir eine wichtige Operation bevor, für die ich um Urlaub gebeten hatte, um mich davon wieder erholen zu können. Doch der Urlaub wurde mir nicht gewährt. Also ging ich ins Büro, doch ich wurde wieder krank und fiel erneut aus.
Für Frauen ist Content-Moderation besonders traumatisierend. Die Gewaltdarstellungen, die wir prüfen mussten, richteten sich größtenteils gegen Frauen. In den Terrorvideos, wie etwa den Enthauptungen des IS, waren hauptsächlich Männer. Aber ansonsten waren meist Frauen Opfer in den Beiträgen, die ich prüfen musste: Gewalt in der Partnerschaft, Frauen, die erstochen wurden, Messerstechereien. Selbst bei Kindesmissbrauch, meistens bei kleinen Babys, waren die Opfer Mädchen.
Immer wenn ich mitbekommen habe, dass jemand im Büro wegen der Arbeit ohnmächtig wurde, war es eine Frau. Ich kenne weitere Fälle von Kolleginnen, die stark an Gewicht verloren, Kolleginnen, die Fehlgeburten hatten.
Vor rund einem Jahr habe ich den Job verlassen. Meine lokalen Vorgesetzten bei Sama haben aus meiner Sicht nie verstanden, wie belastend dieser Job ist. Manchmal, wenn ich meinen Vorgesetzten wegen einer inhaltlichen Rückfrage ein Gewaltvideo gezeigt habe, liefen sie traumatisiert raus und meinten, dass sie so was nie wieder sehen wollten. Unsere Vorgesetzten hatten keine Ahnung, was für Inhalten wir ausgesetzt waren.
Facebook allerdings weiß, glaube ich, sehr genau, wie drastisch die Arbeit ist, die Content-Moderatorinnen und -Moderatoren erledigen müssen. Ich glaube, dass sie die Arbeit auch deshalb von einem Ort aus erledigen lassen, bei dem im Westen nicht so genau hingeschaut wird.
Content-Moderatoren protestieren vor den Büros von Sama in Nairobi: »Die Arbeit an einem Ort erledigen lassen, bei dem im Westen nicht so genau hingeschaut wird«
Foto: Daniel Irungu / EPAEs muss sich dringend etwas verändern, damit Content-Moderation zu einem sicheren Job wird. Ich weiß aus eigener Erfahrung, dass die meisten Moderatoren geködert werden, ohne dass ihnen klar vermittelt wird, was sie erwartet. Es gibt keine ausreichende Vorbereitung, keine angemessene Schulung. Man wird einfach überrumpelt und mit toxischen Inhalten überflutet – und dann mit den psychischen Folgen weitgehend allein gelassen.
Anonym, 26
Künstliche Intelligenz wird im Westen wegen ihrer Nützlichkeit und Produktivitätssteigerung bejubelt, aber eine entscheidende Frage stellen diejenigen, die die Technik feiern, nicht: Wer ist eigentlich der Motor dieses Erfolgs? Es sind Datentrainerinnen und Datentrainer wie ich.
Nach meinem Schulabschluss habe ich dringend nach einem Job gesucht. Nach drei Jahren Suche und Bewerbungen habe ich endlich eine Stelle bei Sama in Kenia gefunden. Mein zweites Kind war damals gerade ein Jahr alt. Ich erhielt zwar zunächst nur wenige Details zu meiner Arbeit, aber ich hätte es mir ohnehin nicht leisten können, den Job nicht anzunehmen.
In den ersten sechs Monaten arbeitete ich an vier unterschiedlichen Projekten, mit denen unterschiedliche KI-Systeme trainiert wurden. Ich annotierte Bilder, trainierte die Systeme von selbstfahrenden Autos und transkribierte oder klassifizierte Texte. Dann begann ich in einem neuen Projekt, ein KI-Modell zu trainieren, mit dem Videos generiert werden können. Meine Arbeit bestand darin, jeden Tag acht Stunden lang verstörende Videos anzusehen und ihren Inhalt zu klassifizieren. Meist wurden in den Videos Kinder misshandelt – sie wurden etwa missbraucht, verprügelt oder gefoltert. Durch meine Arbeit sollte ein Filter trainiert werden, der solche Beiträge erkennen und herausfiltern kann. Ich sah mir die Videos so lange an, bis ich es nicht mehr ertragen konnte.
Büro von Content-Moderatoren in Austin, Texas: Festgelegte Zielmarken, wie viele Videos pro Tag geprüft werden sollen
Foto: The Washington Post / Getty ImagesEs gab festgelegte Ziele, wie viele Videos wir pro Tag mindestens annotieren sollten. Doch wegen der enormen Belastung musste ich mehr und mehr Pausen machen. Meine Produktivität sank, und ich bekam Angst, dass ich meinen Job verliere, wenn ich mein Soll nicht mehr erfülle.
Ich sagte meinen Vorgesetzten, dass die verstörenden Videos meine psychische Gesundheit und sogar die Beziehung zu meinen Kindern beeinträchtigten. Meine Vorgesetzten erwiderten in dem Gespräch, dass viele Leute meinen Job übernehmen würden, wenn ich die festgelegten Ziele nicht erreichen könnte.
Alle in meinem Team entwickelten wegen der Videos, die wir uns ansehen mussten, psychische Störungen. Zwei meiner Kolleginnen gestanden mir, dass ihre Ehen daran zerbrochen waren. Ihre Ehemänner wollten nicht hinnehmen, wie übellaunig sie ihre Kinder behandelten. Sie ließen sich scheiden, um die Kinder zu schützen. Unser Arbeitgeber gab uns in dieser Zeit dennoch keinen Zugang zu psychologischer Betreuung bei einem professionellen Therapeuten.
Irgendwann musste auch ich einsehen, dass der psychische Stress durch die Videos mich so sehr beeinträchtigt hatte, dass ich keine gute Mutter mehr sein konnte. Mein Bruder hatte mich zur Seite genommen. Ihm war aufgefallen, dass die Kinder nicht sauber waren. Er hatte die Narben, die Unterernährung und ihre Wunden gesehen.
Content-Moderatoren wehren sich inzwischen vor Gericht gegen Meta und Sama: Angestellte besser während der Arbeit unterstützen
Foto: Daniel Irungu / EPA-EFEBis dahin hatte ich meinem Bruder wegen der strengen Geheimhaltungsvereinbarung, die ich unterschrieben hatte, nichts von meiner Arbeit erzählt. Doch nun gestand ich ihm mit Tränen in meinen Augen: »Es ist der Job, der meine Familie ruiniert.« Wir entschieden, die Kinder zu ihm zu bringen. Innerlich zerriss es mich, doch ich wollte sie um jeden Preis schützen.
Heute sehe ich manchmal auf Social Media begeisterte Kommentare, die künstliche Intelligenz als den größten Durchbruch unserer Zeit feiern. Doch ich kann bei KI nicht an Fortschritt denken, sondern an meine zerstörte Familie.
Damit anderen Content-Moderatoren und Datenannotierern ein ähnliches Schicksal erspart bleibt, sollten die Unternehmen unbedingt bessere psychologische Betreuung anbieten. Die Angestellten müssen umfassend geschult und besser während der Arbeit unterstützt werden – sonst werden noch mehr Menschen für die Grundlagenarbeit des technologischen Fortschritts leiden müssen.
**
Was Facebook und Sama zu den Vorwürfen sagen
Sama weist die Vorwürfe auf Anfrage zurück. Sie seien nie in einem formellen Verfahren vorgebracht worden. Man wisse auch nichts von Vorfällen wie etwa Fehlgeburten, ohnmächtigen Angestellten oder ganzen Teams mit psychischen Problemen, erklärte eine Firmensprecherin.
Angestellte seien ausreichend geschult und unter anderem mit einer »Resilienzprüfung« ausreichend auf die Arbeit vorbereitet worden, hieß es von der Sprecherin. Während der Arbeit hätten Mitarbeiter regelmäßig die Möglichkeit gehabt, sich mit Therapeuten des Unternehmens auszutauschen, und man habe sich regelmäßig mit einem sogenannten Wellness-Team aktiv nach dem Wohlbefinden von Angestellten erkundigt. »Wir schreiben unseren Mitarbeitern nicht vor, was sie mit ihren Ärzten besprechen«, sagte die Sprecherin. Im Übrigen sei Sama seit März 2023 aus der Content-Moderation ausgestiegen.
Facebooks Mutterkonzern Meta wollte sich mit Verweis auf ein laufendes Gerichtsverfahren, in dem ehemalige Content-Moderatoren wegen mutmaßlicher arbeitsrechtlicher Verstöße gegen Meta und Sama klagen, nicht zu den Vorwürfen äußern. Das Unternehmen verwies aber darauf, nicht mehr mit Sama für Content-Moderation zusammenzuarbeiten.
Aus Konzernkreisen von Meta heißt es, dass man Content-Moderation auch aus Afrika erledigen lasse, um dortige Expertise in lokalen Sprachen zu haben. Den Partnerunternehmen mache man klare Vorgaben für eine therapeutische Unterstützung der Moderatoren, und die Geheimhaltungsvereinbarungen würden es erlauben, mit Ärzten über die Arbeit zu sprechen.
Beide Beiträge der Content-Moderatorinnen finden sich in voller Länge neben weiteren Beiträgen in der gerade erschienen siebten Ausgabe des »Ding«-Magazins , das von der gemeinnützigen Organisation SUPERRR Lab herausgegeben wird.
Über die Branche der Content-Moderatoren und Klickarbeiter können Sie hier mehr lesen.