Facebook und YouTube Personalmangel erschwert Kampf gegen Corona-Falschinformationen

Die großen Netzwerke werden mit falschen und teils gefährlichen Corona-Inhalten geflutet. Doch die Plattformen haben ein Problem: Ihre Moderatoren sind im Homeoffice und arbeiten nur eingeschränkt.
"Nutzen verstärkt automatisierte Systeme": Facebook setzt gegen die Verbreitung von Falschinformationen vermehrt auf maschinelles Lernen

"Nutzen verstärkt automatisierte Systeme": Facebook setzt gegen die Verbreitung von Falschinformationen vermehrt auf maschinelles Lernen

Foto: Carsten Rehder/ dpa

Anfangs wurden die großen sozialen Netzwerke wie Facebook und YouTube für ihre Reaktionen auf die Pandemie noch gelobt, nun geraten sie zunehmend unter Druck. Am Donnerstag kritisierten mehr als 100 internationale Ärzte und Virologen, darunter Melanie Brinkmann von der TU Braunschweig und Christian Drosten von der Charité, dass Fehlinformationen in den sozialen Medien Menschenleben gefährden könnten. Die weit verbreiteten und das Virus oft verharmlosenden Falschnachrichten hätten schon dazu geführt, dass Menschen mit schweren Symptomen keine Krankenhäuser aufgesucht hätten und verstorben seien. 

Facebook und die zum Google-Konzern gehörende Videoplattform YouTube verweisen gegenüber dem SPIEGEL auf eine ganze Reihe neuer, schärferer Richtlinien für Inhalte rund um das Virus. Beide Unternehmen räumen aber auch Probleme ein. So arbeiten in beiden Konzernen gerade deutlich weniger Mitarbeiter daran, Inhalte zu prüfen.

Wegen der Pandemie hatten die Unternehmen ihre "Moderatoren", die in der Mehrzahl für externe Firmen arbeiten, ins Homeoffice geschickt - bei Facebook Deutschland waren davon mehrere Hundert Mitarbeiter der Dienstleister Majorel und CCC betroffen. Von zu Hause aus können sie aus rechtlichen Gründen nur Teile ihrer Aufgaben wahrnehmen.

Künstliche Intelligenz wird in Coronakrise vermehrt gegen Falschmeldungen eingesetzt

Sowohl Facebook als auch YouTube setzen daher verstärkt auf maschinelle Erkennung problematischer Inhalte, die fehleranfällig ist. "Da nicht alle Personen, die normalerweise Inhalte überprüfen, derzeit vollumfänglich arbeiten können, priorisieren wir bestimmte Inhalte und nutzen verstärkt automatisierte Systeme", sagt eine Facebook-Sprecherin dem SPIEGEL. Auch Festangestellte würden gerade verstärkt als Prüfer eingesetzt. "Trotz dieser Maßnahmen kann es zu verlängerten Reaktionszeiten und mehr Fehlern bei der Durchsetzung unserer Regeln kommen."

Facebook habe trotz des Engpasses allein im März Warnungen zu 40 Millionen Inhalten angezeigt, heißt es, sowie "bereits Hunderttausende von Fehlinformationen im Zusammenhang mit Covid-19 entfernt, die unmittelbar Schaden verursachen können". Wegen der Personalprobleme hat das Netzwerk auch die Möglichkeit, gegen Löschentscheidungen Einspruch zu erheben, ausgesetzt. Eine Rückkehr zu den Normalbedingungen sei noch nicht absehbar, so das Netzwerk.

Bei seinem Messenger-Dienst WhatsApp hatte Facebook schon vor Wochen die Möglichkeit beschränkt, bereits mehrfach weitergeleitete Inhalte an ganze Gruppen weiterzusenden - eine Maßnahme gegen die vielen Kettenbriefe mit fragwürdigen oder falschen Corona-Inhalten, die zu Beginn der Pandemie verschickt wurden. Seit dieser Woche soll Nutzern ein englischsprachiger Chatbot dabei helfen, Corona-bezogene Nachrichten auf ihren Wahrheitsgehalt zu prüfen.

Sowohl Facebook als auch YouTube verlinken derzeit zudem verstärkt auf offizielle Quellen und blenden prominent Covid-19-Infotafeln ein. Beiträge, welche die Existenz von Corona anzweifeln oder Menschen abraten, sich in Behandlung zu begeben, löscht die Videoplattform. Ebenfalls werden Beiträge gesperrt, in denen behauptet wird, die Mobilfunktechnik 5G trage zur Verbreitung des Virus bei.

Auch Falschinformationen können Geld bringen

Zuletzt haben sich in den Netzwerken medizinische Falschinformationen verstärkt mit Aufrufen gegen die Pandemie-Bekämpfungsstrategien von Bund und Ländern vermischt - unter anderem riefen Menschen in Facebook-Gruppen und YouTube-Videos zu Massendemonstrationen auf.

Die hohen Abrufzahlen mancher Verschwörungstheoretiker seien jedoch nicht auf die eigenen Algorithmen zurückzuführen, heißt es bei YouTube. Die Nutzer suchten vielmehr gezielt nach deren Namen und Kanälen. Für die Ersteller können sich auch fragwürdige Corona-Videos allerdings offenbar weiter lohnen – es gebe keine grundsätzliche Entscheidung, diese von der Monetarisierung durch Werbung auszunehmen.

Der Konzern betont indes, seine Priorisierung verlässlicher Inhalte zeige Wirkung – im ersten Quartal sei die Wiedergabezeit verlässlicher Nachrichteninhalte weltweit um 75 Prozent gestiegen, zudem habe man Zigtausende problematischer Inhalte gelöscht. Wie Facebook setzt YouTube dabei verstärkt auf automatische Systeme: Solche durch maschinelles Lernen trainierten Systeme werden nun auch vermehrt eingesetzt, um problematische Inhalte direkt zu löschen. Bisher dienten diese Systeme vor allem dazu, problematische Inhalte zu erkennen und sie dann an menschliche Moderatoren weiterzuleiten. 

DER SPIEGEL 20/2020
Foto:

cgs

Was geschah in Wuhan und wer hat Schuld an der Pandemie?

Protokoll einer Vertuschung

Zur Ausgabe
Die Wiedergabe wurde unterbrochen.