Corona-Videos auf YouTube Kleiner Hinweis, unklare Wirkung

Ob Verschwörungsmythos oder TV-Beitrag: Unter jedem Corona-Video auf YouTube findet sich prominent ein Verweis auf die Bundeszentrale für gesundheitliche Aufklärung. Hilft das wirklich gegen Falschinformationen?
Covid-19-Infobox auf YouTube: Sie erscheint unter allen Videos aus dem Themenfeld, auch unter diesem SPIEGEL-TV-Beitrag

Covid-19-Infobox auf YouTube: Sie erscheint unter allen Videos aus dem Themenfeld, auch unter diesem SPIEGEL-TV-Beitrag

Foto: YouTube

"Covid-19: Aktuelle, wissenschaftliche Informationen finden Sie bei der Bundeszentrale für gesundheitliche Aufklärung": Dieser Hinweis steht seit einigen Wochen unter nahezu allen YouTube-Videos, die sich mit der Coronakrise beschäftigen. Egal, ob sich ein Clip um einen angeblichen "Krieg gegen die Bürger" sowie die Frage dreht, ob das Coronavirus "ein Riesenfake" ist, oder ob es sich um einen Fernsehbeitrag der "Tagesschau" oder von SPIEGEL TV handelt: Die blaue Box ist immer da, in exakt gleicher Form.

Wie auch der Button "Weitere Informationen" verlinkt der Hinweis auf Infektionsschutz.de/coronavirus , eine Informationsseite der Bundeszentrale für gesundheitliche Aufklärung (BZgA). Ein weiterer Box-Link verweist auf eine Übersichtsseite von Google .

Eigentlich scheint der Sinn der Box klar: YouTube lädt die Nutzer ein, sich auf seriösen Seiten weiter zu Corona-Themen zu informieren. Bei genauer Betrachtung jedoch muss sich die Google-Tochter die Frage gefallen lassen, ob die Box mehr ist als ein Feigenblatt, wenn es um die Einordnung einzelner grenzwertiger Videos geht.

Denn gerade auf YouTube kursieren viele Corona-Verschwörungsmythen und -Verharmlosungen - und das, obwohl die Plattform die aus ihrer Sicht problematischsten Videos relativ rigoros löscht, beispielsweise Clips, die offline zu Gewalt führen. In diese Kategorie fallen für YouTube etwa Videos, die den Mobilfunkstandard 5G als Ursache oder Verbreitungsweg des Coronavirus darstellen. Als wegen dieses Mythos in Großbritannien Funktürme angezündet wurden, reagierte YouTube schnell und löschte solche Videos.

Plötzlich stand die BZgA im Fokus

Als YouTube seine Corona-Box einführte, war sie zunächst noch grau statt blau. Unter Corona-Videos tauchte ab Anfang März folgender Hinweis samt Verlinkung auf: "Hier finden Sie die aktuellsten Informationen zum Coronavirus von der Bundeszentrale für gesundheitliche Aufklärung". Zu sehen war daneben das Logo der BZgA, auch unter abseitigen Inhalten wie etwa einem "Corona Song (Bums Bums Corona)".

Empfohlener externer Inhalt
An dieser Stelle finden Sie einen externen Inhalt von Twitter, der den Artikel ergänzt und von der Redaktion empfohlen wird. Sie können ihn sich mit einem Klick anzeigen lassen und wieder ausblenden.
Externer Inhalt

Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit können personenbezogene Daten an Drittplattformen übermittelt werden. Mehr dazu in unserer Datenschutzerklärung.

Für die BZgA kam die prominente Erwähnung überraschend. Was nach außen wie eine Kooperation wirkte, war offenbar ein Vorpreschen YouTubes. Man sei in die Pläne des Portals vorab nicht eingebunden gewesen, heißt es aus der Bundesoberbehörde. YouTube habe den Hinweis eigenständig eingeblendet.

YouTube teilt dazu mit, es habe das Bundesministerium für Gesundheit über die neuen Infoboxen "informiert und um Anleitung gebeten, auf welche Quelle unsere Benutzer verlinkt und damit hingewiesen werden sollen". Das Ministerium habe dabei die BZgA als Quelle für hilfreiche Informationen genannt.

Nicht nur YouTubes fehlende Absprache direkt mit der BZgA sorgte im März für Konfusion, sondern auch die Art, wie der Hinweis zunächst formuliert war. Denn offenbar verstanden manche YouTube-Nutzer den Text falsch und machten die BZgA fortan für Videoinhalte Dritter verantwortlich. Immerhin stand ja ihr Name darunter, neben ihrem Logo. Bei Corona-Videos mit fragwürdigem Inhalt sei dies als "problematisch benannt" worden, heißt es dazu aus der BZgA, die von entsprechenden Nutzer-Rückmeldungen berichtet.

Dieses Problem brachte YouTube und die BZgA doch in Kontakt. Die Box jedenfalls wurde von YouTube offenbar mit Blick auf die Bedenken der Behörde hin noch einmal überarbeitet, damit Nutzern klarer wird, dass nicht das jeweilige Video, sondern nur der verlinkte Inhalt von der BZgA stammt.

Empfohlener externer Inhalt
An dieser Stelle finden Sie einen externen Inhalt, der den Artikel ergänzt und von der Redaktion empfohlen wird. Sie können ihn sich mit einem Klick anzeigen lassen und wieder ausblenden.
Externer Inhalt

Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit können personenbezogene Daten an Drittplattformen übermittelt werden. Mehr dazu in unserer Datenschutzerklärung.

Problem entschärft, nicht gelöst?

Doch auch daran, ob der aktuelle Hinweis nun wirklich die optimale Lösung ist, bestehen Zweifel. Bianca Hoffmann etwa hält die Box weiter für "irreführend". Hoffmann arbeitet für die Recherche-Organisation Correctiv, die im Kampf gegen Fehlinformationen mit Facebook kooperiert  und gerade ihre Nutzer befragt hat, wo diesen fragwürdige Informationen begegnen . Hoffmann meint, auch der aktuelle Hinweis erwecke noch den Anschein, dass "auch die absurdesten Videos" durch die BZgA "legitimiert" oder "sogar von ihr veröffentlicht worden seien". Aus ihrer Sicht schade der Hinweis so eher, als dass er nutze.

Correctiv empfiehlt YouTube einen anderen Weg, eine "deutliche und unmissverständliche Markierung" von Videos, die von unabhängigen Faktencheckern "auf Basis von nachvollziehbaren Kriterien als fehlerhaft oder falsch bewertet wurden". Diese Markierung könnte zum Beispiel so aussehen wie der Hinweis, der mittlerweile vor YouTube-Videos mit sensiblen Inhalten eingespielt wird, schlägt Hoffmann vor. So umgesetzt wäre der Hinweis deutlich auffälliger.

Warnhinweis auf YouTube: Deutlich präsenter als Infokästen

Warnhinweis auf YouTube: Deutlich präsenter als Infokästen

Foto: YouTube

YouTube antwortet auf die SPIEGEL-Nachfrage, ob der bisherige Hinweis als "Adelung" problematischer Corona-Videos missgedeutet werden könne, dass es dem Unternehmen darum gehe, jedem "eine möglichst umfassende Faktenlage" zur Verfügung zu stellen: "Wir sind eine offene Plattform und entfernen Inhalte von Menschen nur, wenn sie gegen unsere Community-Richtlinien verstoßen."

"Die Kästchen unter dem Video 'verifizieren' das Video nicht als wahr", stellt die Plattform auch noch einmal klar. Es sei wichtig, dass Nutzer "Zugang zu allen Fakten" hätten und damit "kritisch zu ihren eigenen Schlussfolgerungen" zu den Videoinhalten kämen.

Wie erfolgreich ist die Box?

Wie viele Klicks die Box direkt unter Corona-Videos der BZgA-Infoseite beschert, ist unbekannt. Die Behörde spricht zwar von rund 3,5 Millionen Nutzern, die seit Mitte März durch YouTube auf Infektionsschutz.de landeten. Auf YouTube finden sich allerdings noch an weiteren Stellen als nur unter einzelnen Videos Verlinkungen zur Behördenseite, etwa auf den Ergebnisseiten zu Sucheingaben wie "Corona". Wie viele Aufrufe also tatsächlich von Nutzern kommen, die nach einem konkreten Video "aktuelle, wissenschaftliche Informationen" suchten, lässt sich so nur schätzen.

Unklar ist zudem, ob es Nutzer auch nur ansatzweise zufriedenstellt, wenn sie von einem YouTube-Video mit Gerüchten und Geraune zu einer "Neuen Weltordnung" oder einer Impfpflicht auf die BZgA-Seite weiterklicken und ihnen dort als Erstes das Thema Abstandhalten begegnet. Zu vielen besonders kruden Verschwörungstheorien, die in manchen YouTube-Videos vertreten werden, findet sich auf der Seite der BZgA keinerlei Informationsangebot.

Von der BZgA heißt es derweil auch zur aktuellen Box noch, der Text könnte aus ihrer Sicht gern mit einem Hinweis ergänzt werden, dass das darüberstehende Video nicht von der BZgA erstellt wurde. Ganz aus der Welt ist das Problem der Nutzer, die den Text falsch verstehen, offenbar also noch immer nicht.

Videos hinterlassen oft mehr Eindruck

Jenseits der Formulierungs-Feinheiten bleibt es zuletzt ein grundsätzlicher Streitpunkt, wie zielführend es überhaupt ist, Videobeiträgen ausgerechnet einen Link auf eine textlastige Website zur Seite zu stellen. Wirkt diese im Verhältnis nicht ziemlich unattraktiv? Und hinterlässt etwa ein 30-Minuten-Video bei vielen Menschen nicht ohnehin einen bleibenderen Eindruck?

Eine sehr ähnliche Diskussion hatte es bereits 2018 gegeben: Damals hatte YouTube angekündigt, Videos zu Themen wie der Mondlandung, zu denen Verschwörungserzählungen kursieren, Textauszüge aus Wikipedia und von anderen Websites zur Seite zu stellen, quasi als weitere Informationsquelle. Die Wikimedia Foundation, die Stiftung hinter dem Projekt Wikipedia, hatte von diesem Plan auch erst erfahren, nachdem dieser bereits angekündigt worden war .

Die Wiedergabe wurde unterbrochen.