YouTube und die Verschwörungstheorien Die Drecksarbeit wird an Freiwillige outgesourct
Mit Wikipedia-Auszügen neben Videos zur Mondlandung oder "Chemtrails" will YouTube gegen Verschwörungstheorien angehen. Eine billige, undurchdachte Maßnahme der Plattform, die zu einem milliardenschweren Konzern gehört.
"Wir sind kein Medienunternehmen" ist Silicon-Valley-Code. Er steht für: "Wir wollen auf gar keinen Fall Verantwortung dafür übernehmen, was unsere Nutzer mit unseren Plattformen anstellen - wir wollen damit nur Geld verdienen".
YouTube-Chefin Susan Wojcicki hat den codierten Satz diese Woche bei ihrem Auftritt auf dem Festival South by Southwest (SXSW) gesagt. Vor ihr taten das zum Beispiel schon Google-News-Chef Richard Gingras, Facebook-Boss Mark Zuckerberg und Facebook-Geschäftsführerin Sheryl Sandberg.
Die Aufmerksamkeitsmaschinen müssen weiterlaufen
Die beiden Unternehmen - Facebook und die Alphabet-Holding, zu der Google und YouTube gehören - dominieren den Markt für Onlinewerbung, sie verdienen gigantische Summen. Alphabet verkündete zuletzt erstmals einen Jahreserlös von mehr als 100 Milliarden Dollar: 110 Milliarden, um genau zu sein. Bei Facebook waren es im selben Zeitraum 40 Milliarden.
Aber wenn es den Unternehmen darum geht, die schlimmsten Auswüchse ihrer immer weiter perfektionierten Aufmerksamkeitsmaschinen einzudämmen, soll das bitte möglichst wenig kosten. Facebook zum Beispiel hatte 2016 seine hausinternen Redakteure entlassen. Seit Anfang 2017 lässt das Unternehmen professionelle Faktenprüfer in ausgesuchten Redaktionen Falschnachrichten entlarven - zunächst unbezahlt.
Später bekamen zumindest einige der Prüfer Geld für ihre Mehrarbeit, das Outsourcing aber dürfte für Facebook immer noch erheblich billiger sein, als selbst professionelle Redakteure in aller Welt zu beschäftigen, die Falschnachrichten nicht nur neben ihrer regulären Arbeit und dementsprechend langsam überprüfen.
Unbezahltes Korrektiv
Der von Susan Wojcicki auf der SXSW mit wenigen Worten angekündigte Ansatz von YouTube, verschwörungstheoretische Videos mit Links auf die Wikipedia zu ergänzen, um dem mitunter gefährlichen Quatsch etwas entgegenzusetzen, ist auch so ein Versuch, die Drecksarbeit auszulagern. In diesem Fall an die freiwilligen Wikipedia-Autoren, die ganz sicher nicht darum gebeten haben, als unbezahltes Korrektiv für eine Plattform herzuhalten, die mit extremen Inhalten extrem viel Geld verdient. YouTube hat sich nicht einmal die Mühe gemacht, Wikipedia oder die dahinter stehende Wikimedia Foundation vorab über den Plan zu informieren.
Das Wegdelegieren der Wahrheitsfindung von einer Plattform mit nutzergenerierten Inhalten zur nächsten ist auch aus einem anderen Grund ein fragwürdiger Schritt: Nichts dürfte entschlossene Verschwörungstheoretiker und Propagandisten davon abhalten, nach dem Hochladen ihrer Videoclips immer wieder die passenden Wikipedia-Einträge zu editieren und sie so zumindest zeitweise - nämlich bis zur Korrektur - nutzlos zu machen. Oder gar nützlich für die eigenen Zwecke.
Wenigstens soll die Verlinkung zu Wikipedia nur ein erster Schritt von YouTube sein, weitergehende Informationen zu den Videos auf seiner Seite zu liefern. Aber er wirkt dermaßen dreist und undurchdacht, dass YouTube ihn sich auch gleich sparen könnte.
Update: Diesem Artikel wurde nachträglich die Reaktion der Wikimedia Foundation hinzugefügt, außerdem wurde im vorletzten Absatz ein sprachlicher Fehler beseitigt.
Interessant ist auch, was eine Seite bislang veröffentlicht hat. Ist eine spektakuläre Nachricht vielleicht der erste Beitrag überhaupt? Gibt es die angeblich traditionsreiche Seite möglicherweise erst seit einer Woche? Oder postet die Seite sonst offenkundig blödsinnige Nachrichten?
Neben Satire-Seiten gibt es Websites, die mit erfundenen Nachrichten Besucher locken wollen, um über Anzeigen Geld zu verdienen. Die US-Aufklärungswebsite "Snopes" listet diverse solcher vermeintlicher Nachrichtenangebote auf, darunter etwa "World News Daily Report" und "National Report". Bei Twitter-Accounts sollte man überprüfen, ob ein Tweet wirklich von dem Account kommt, dem er zugeschrieben wird. Mitunter begegnet man auf Twitter auch Fake-Accounts, die nur so ähnlich heißen wie ein bekannter Account. Davon, dass ein Twitter-Konto wirklich demjenigen gehört, dem er angeblich gehört, kann man erkennen, wenn er von Twitter "verifiziert" wurde, also einen weißen Haken auf blauem Hintergrund neben dem Profilnamen hat.
Jeder Facebook-Nutzer, der eine Seite betreibt oder eine Community managt, kann beim Posten eines fremden Artikels auch die Überschrift und den Einleitungstext ändern. Hier zum Beispiel haben wir einen SPIEGEL-ONLINE-Artikel mit der Überschrift "Kristina Schröder zieht sich aus Bundespolitik zurück" mal anders verpackt. Wir hätten auch Quatsch schreiben können wie "Kristina Schröder begeistert von Trumps Frauenbild". Merken würde man das als Facebook-Nutzer erst beim Klick auf den Artikel.
Bei Medien wie SPIEGEL ONLINE steht am Ende von Meldungen übrigens oft ein Hinweis wie "dpa", "Reuters" oder "AFP". Dieses Kürzel zeigt an, dass die Meldung oder ein Teil ihrer Informationen von einer Nachrichtenagentur stammt. Meldungen aus Agenturen lassen sich nicht immer verlinken.

Viele aufregende Geschichten entlarven sich per simplem Googlen auch als Urban Legends, als Großstadtmythen. Das gilt für manche angebliche Horrornachricht rund um Flüchtlinge - wie die "Hoaxmap" zeigt -, aber auch für viele Anekdoten, die jemand von einem ungenannten Dritten gehört haben will, etwa die Geschichte vom Hund, der im Kaufhaus stirbt.
Bei Reddit und in anderen Internetforen wurde rund um die US-Wahl in allerlei Beiträgen, vor allem aus dem Umfeld von Trump-Fans, auf eine von WikiLeaks veröffentlichte E-Mail verwiesen. Dabei wurde mitunter suggeriert, Hillary Clintons Wahlkampfleiter würde sich in der Nachricht kritisch über Deutschlands Umgang mit der Flüchtlingskrise äußern. Ein Klick auf die Quelle beweist aber: Die E-Mail wurde an den Mitarbeiter Clintons geschickt, nicht von ihm.
Auch wenn viele Blogs und Foren eine Nachricht diskutieren - und kein etabliertes Medium -, hat man nicht unbedingt einen Beleg für "Lügenpresse"-Vorwürfe gefunden. Eins von vielen Gegenbeispielen für diese These findet sich etwa bei "Mimikama".
Will man eine Ahnung davon bekommen, ob ein YouTube-Video vielleicht schon älter ist, kann man zum Beispiel den YouTube DataViewer von Amnesty International anwerfen. Der Dienst liefert unter anderem sogenannte Thumbnails, Bildausschnitte aus Videos, mit denen sich dann wieder eine Bilderrückwärtssuche durchführen lässt. Außerdem wird das Upload-Datum angezeigt.