Desinformation in sozialen Netzwerken Nachträgliche Transparenz ist zu wenig

Twitter hat zehn Millionen Tweets aus russischen und iranischen Trollfabriken veröffentlicht. Doch um staatlich gesteuerte Desinformationskampagnen zu bekämpfen, müssen die Betreiber sozialer Netzwerke früher handeln.
Logos von Facebook und Twitter

Logos von Facebook und Twitter

Foto: Dado Ruvic/ REUTERS

Wer sich heute in sozialen Onlinenetzwerken bewegt, bekommt haufenweise professionell inszenierte und organisierte Inhalte vorgesetzt: Selbstdarstellungen von Influencern, von Social-Media-Redakteuren aufbereitete Medienberichte, auf individuelle Interessen abgestimmte Werbeanzeigen - und staatlich gesteuerte Desinformationskampagnen.

Die sind ein normaler Bestandteil von Facebook, Twitter, YouTube und anderen Plattformen geworden, weil sie perfekt zur Technik und zum Geschäftsmodell der Betreiber passen: Die Netzwerke tun alles, um die Aufmerksamkeit der Nutzer zu binden, ihre Interaktionen zu belohnen und sie für ihre Werbekunden in kleinste Zielgruppen aufzuteilen. Mit diesen Aufmerksamkeits- und Targeting-Mechanismen arbeiten auch die Organisatoren der Kampagnen. Deshalb sind ihre Fake-Accounts zum Teil kaum von legitimen Nutzern zu unterscheiden, deshalb ist die Aufdeckung von Desinformationskampagnen eine komplexe Aufgabe. Eine, für die selbst die großen US-Unternehmen externe Hilfe brauchen.

Transparenz kann peinliche Schwächen offenbaren

Insofern ist Twitters Veröffentlichung von zehn Millionen Tweets, die aus russischen und iranischen Trollfabriken stammen sollen, ein richtiger und wichtiger Schritt. Derartige Transparenz ist für ein börsennotiertes Unternehmen nicht ohne Risiko. Sie kann offenlegen, welche Schwächen es bei der Kontrolle über die eigene Plattform hat.

Aber nun können sich Forscher und Datenjournalisten in aller Welt über das Material hermachen und versuchen, zu verstehen, wie Desinformation abläuft, welche Ziele sie verfolgt und vielleicht auch, welchen Erfolg sie hat.

Zu lernen und der Öffentlichkeit zu erklären gibt es da einiges: Wie sich die Akteure tarnen, um zwischen den normalen Nutzern möglichst lange unentdeckt zu bleiben und gleichzeitig ein möglichst großes Publikum aufzubauen, zum Beispiel. Oder wie sie im eigenen Land versuchen, eine politisch-ideologische Linie zu stärken, und im Ausland versuchen, Zwietracht zu säen, gesellschaftliche Spaltungen zu vertiefen, Wahlen zu beeinflussen und gewählte Politiker zu diskreditieren. Oder welche ihrer Botschaften es in andere Medien schaffen und welche medialen Inhalte sie in den sozialen Netzwerken für ihre Zwecke instrumentalisieren. Solche Erkenntnisse helfen im besten Fall allen Netzwerknutzern im (selbst-)kritischen Umgang mit den Plattformen.

Desinformation ist ein Feature, kein Bug

Allerdings entwickeln die Täter ihre Methoden seit Jahren ständig weiter, während die Betreiber der sozialen Netzwerke erst jetzt damit beginnen, Desinformationskampagnen als das zu behandeln, was sind: kein unschöner Nebeneffekt, sondern ein zentrales Nutzungsszenario. Ein Feature, kein Bug.

Der Öffentlichkeit zur rückblickenden Analyse zehn Millionen Tweets aus den Jahren 2013 bis 2018 vor die Füße zu kippen, reicht dafür aber nicht aus. Nachträgliche Transparenz ist zu wenig. Externe Forscher brauchen mehr und ständigen Zugang zu den Daten der Plattformbetreiber. Facebook etwa hat jetzt einen "War Room", in dem zwei Dutzend seiner Mitarbeiter in Echtzeit verdächtige Aktivitäten im Netzwerk erkennen und analysieren sollen. Auch das ist ein sinnvoller Schritt. Noch besser wäre es, wenn auch unabhängige Spezialisten dort arbeiten dürften.

Die Wiedergabe wurde unterbrochen.