Europawahl und Desinformation In diesem Abwehrzentrum will Facebook seine Nutzer vor Manipulation schützen

Die Europawahl vor Manipulationen schützen, das will Facebook in seinem neuen Elections Integrity Operations Center leisten: Desinformationskampagnen stoppen, Netzwerke von Fake-Accounts löschen. Unser Redakteur war dort.

Facebooks Elections Integrity Operations Center in Dublin
SPIEGEL ONLINE

Facebooks Elections Integrity Operations Center in Dublin

Aus Dublin berichtet


Zwei fundamentale Unterschiede gibt es zwischen Facebooks "War Room" im kalifornischen Menlo Park und dem in Dublin: Der neue am irischen Sitz des Unternehmens hat Fenster. Und er heißt nicht "War Room", sondern Elections Integrity Operations Center. Darauf legt Facebook einen gewissen Wert. Hier soll kein Krieg gewonnen, sondern die Integrität einer Wahl sichergestellt werden.

Verbal wird also ab-, technisch und personell hingegen aufgerüstet. 30.000 Mitarbeiter sind laut Facebooks Angaben mittlerweile ganz allgemein für "safety and security" zuständig, 500 allein für die Sicherung von Wahlen. Etwa 40 von ihnen sitzen zu jeder Tageszeit in diesem Raum.

Vergangenen Donnerstag ließ das Unternehmen einige Journalisten für wenige Minuten hinein. Bedingung: keine Bilder, auf denen die Mitarbeiter zu erkennen sind. Und keine hochauflösenden Fotos von ihren Bildschirmen und den vielen Displays, die im ganzen Raum verteilt sind und die so etwas wie die Vitalfunktionen von Facebook, WhatsApp und Instagram in ganz Europa zeigen.

Traditionelle Facebook-Architektur

So bleibt ein flüchtiger Eindruck: An der Decke liegen Rohre und Lüfter offen, die Säulen sind betongrau, es ist quasi die traditionelle Facebook-Architektur. Eine EU-Flagge hängt an der Wand. Die Arbeitsplätze haben Schilder, auf denen die Länderkürzel stehen, oder auch "Imminent Risk" und "Threat Intel". Alle Mitarbeiter sehen jung aus, niemand wirkt älter als Mitte 30.

Die kurze Führung ließe sich leicht als reiner PR-Termin abtun und natürlich ist es einer. Aber es gibt nur wenige Orte, an denen eine der zentralen gesellschaftlichen Herausforderungen, vor denen das Unternehmen steht, greifbar wird. Dies ist einer davon.

Spätestens seit dem US-Präsidentschaftswahlkampf 2016 gehören Desinformationskampagnen in sozialen Medien zur neuen Normalität, ebenso übrigens wie gezielte Hacks gegen Politiker. Die EU-Kommission schreibt: "Es ist erwiesen, dass ausländische staatliche Akteure zunehmend Desinformationsstrategien einsetzen, um gesellschaftliche Debatten zu beeinflussen, Spaltungen herbeizuführen und in die demokratische Entscheidungsfindung einzugreifen."

All das soll an den etwa 40 Tischen im neuen Operations Center verhindert werden. Man müsste Tage und Wochen in diesem Raum verbringen, um beurteilen zu können, wie gut das klappt. Bisher hat Facebook keinen einzigen Vorfall bekannt gemacht, der im Zusammenhang mit der Europawahl steht.

Wähler verwirren, Identität verschleiern

Das kann verschiedene Gründe haben. Der einfachste wäre, dass es noch keine ernstzunehmenden Manipulationsversuche gegeben hat und dass die Gefahr durch Desinformationskampagnen in sozialen Medien "maßlos überschätzt" wird, wie der Politikwissenschaftler Thomas Rid im Februar im SPIEGEL-Interview sagte.

Oder es kommt alles erst noch. Für Versuche, Wähler von der Stimmabgabe abzuhalten, etwa durch das Verbreiten eines falschen Datums oder irreführender Angaben zu Wahllokalen, ist es möglicherweise noch zu früh. Das jedenfalls vermutet eine deutsche Mitarbeiterin im Operations Center.

Oder aber die Netzwerke, die zur Wahl aufgebaut werden sollten, um Desinformationen zu verbreiten, existieren längst. Aber Facebook hält Informationen darüber grundsätzlich so lange zurück, bis es nachweisen kann, dass die Accounts und Seiten dieser Netzwerke über gefälschte Identitäten betrieben werden. Für Facebook wäre das ein "inauthentic coordinated behavior" und damit ein Verstoß gegen die Nutzungsbedingungen. Das erlaubt Facebook, die Netzwerke auf einen Schlag zu entfernen. Was die Fake-Accouts inhaltlich verbreitet haben, spielt dabei keine Rolle.

Die Displays an den Wänden zeigen die momentane Aktivität in Facebooks Netzwerken.
SPIEGEL ONLINE

Die Displays an den Wänden zeigen die momentane Aktivität in Facebooks Netzwerken.

Nathaniel Gleicher, der bei Facebook den Bereich Cybersecurity-Policy verantwortet, sagt: "Die Mehrheit dessen, was wir löschen, ist nicht eindeutig faktisch falsch oder verstößt inhaltlich gegen unsere Nutzungsbedingungen". Das hat seinen Grund, denn Desinformation funktioniert nicht mit glasklaren Lügen, sondern mit extremen Zuspitzungen, Auslassungen und anderen Formen der Verzerrung.

Es ist aber auch so, dass die Europawahl komplexer ist als die (mehr oder weniger) binäre Entscheidung bei US-Wahlen zwischen Republikanischer und Demokratischer Partei oder die Entscheidung für oder gegen den Brexit. Entsprechend schwieriger wäre es, einen gezielten Angriff zu starten.

Das Operations Center ist keine Dauereinrichtung

Lukasz Olejnik, wissenschaftlicher Mitarbeiter am Center for Technology and Global Affairs der Universität Oxford, sagt, die Europawahlen seien zum Glück "zu einem gewissen Grad von sich aus widerstandsfähig": "Unterschiede in Kultur, Mediennutzungsverhalten, Sprachen und andere Phänomene spielen da herein. Ein Akteur, der eine koordinierte Desinformationsoperation in großem Maßstab durchführen wollte, bräuchte erhebliche Ressourcen."

Die einfacheren Attacken seien eher Teil eines "längeren Spiels", sagt Olejnik: "Verwirrung, Unsicherheit, Angst und Misstrauen gegen das System stiften, soziale Spaltungen instrumentalisieren - so etwas ist vorstellbar".

Die EU-Kommission geht von 30 Staaten aus, die so etwas versuchen, nennt aber in ihrem Aktionsplan vom Dezember 2018 nur einen namentlich: Russland.

Permanente Einrichtungen gegen Bedrohungen der Demokratie

Der Europäische Rat hat mit der East StratCom Task Force schon 2015 ein (wenn auch kleines) Team aufgestellt, um mit Hilfe strategischer Kommunikation "Russlands laufenden Desinformationskampagnen entgegenzuwirken". Seither hat die Task Force Tausende von Falschmeldungen aufgedeckt, nachzulesen auf ihrer Website und über Facebook und Twitter.

In den USA haben das FBI, die Geheimdienste und das Heimatschutzministerium ihre Arbeitsgruppen zum Schutz der Midterms 2018 zu permanenten Einrichtungen gemacht.

Und das Oxford Internet Institute hat eine Kommission aus Wissenschaftlern, Technikexperten und Politikern gegründet, die Mittel gegen die "technologischen Bedrohungen der Demokratie" finden soll.

Facebooks Wahlzentralen dagegen sind keine Dauereinrichtungen. "Wir beobachten alles, bis die Aktivität in den Netzwerken wieder auf ein normales Maß zurückgeht", sagt Nathaniel Gleicher. "Das ist üblicherweise einige Tage nach einer Wahl".

"Den bösartigen Akteuren das Leben möglichst schwer und teuer machen"

Facebooks Experten haben eigens entwickelte Programme zur Analyse der Netzwerkaktivitäten zur Verfügung, dazu kommt die firmeneigene Software Crowdtangle zur Beobachtung von Trends auch auf anderen Social-Media-Plattformen. Die Experten spielen Szenarien durch und überlegen sich, wie gegnerische Akteure vorgehen könnten. Sie haben spezielle Werkzeuge für das gleichzeitige Entfernen vieler Konten und Inhalte, und sie greifen Tipps von Forschern und Strafverfolgern auf, wenn diese glauben, mögliche Desinformationskampagnen entdeckt zu haben.

Darüber hinaus arbeitet Facebook mit mittlerweile 21 externen Faktencheck-Organisationen zusammen, die in 14 Sprachen arbeiten und Desinformationen finden sollen. Markieren sie Inhalte als falsch oder irreführend, werden diese in der Regel aber nicht gelöscht. Stattdessen schränkt Facebook ihre Reichweite im Newsfeed ein und fragt Nutzer, die diese Inhalte teilen wollen, ob sie das wirklich möchten - in der Hoffnung darauf, dass die Nutzer vernünftig sind.

Außerdem verlangt Facebook seit Mitte April einen Identitäts- und Herkunftsnachweis von jedem, der in der EU politische Werbung schalten will. Alle diese Anzeigen werden zudem mit Informationen zum Geldgeber versehen und für sieben Jahre in einem öffentlich zugänglichen Archiv aufbewahrt.

Soweit die Theorie. Keines der drei Mittel funktioniert perfekt. Zuletzt übersah Facebook in Spanien drei rechte Netzwerke, die unter anderem mit gefälschten Fotos die Parlamentswahl beeinflussen wollten. Sie wurden erst nach einem Hinweis der Kampagnenplattform Avaaz entfernt.

Wie viele Menschen mit Faktenchecks erreicht, geschweige denn überzeugt werden, ist zudem völlig offen. Und die erzwungene Transparenz bei politischen Anzeigen lässt sich mit etwas krimineller Energie umgehen. Nathaniel Gleicher weiß das. Einer seiner Lieblingssätze lautet: "Wir wollen den bösartigen Akteuren das Leben möglichst schwer und teuer machen."

Hinweis: In einer früheren Fassung dieses Artikels hieß es, 5000 Facebook-Mitarbeiter in Dublin seien für "safety and security" zuständig. Richtig ist: In Dublin arbeiten derzeit insgesamt rund 4000 Mitarbeiter, Ende 2019 sollen es 5000 sein. Unternehmensweit arbeiten 500 Mitarbeiter ausschließlich am Thema Wahl-Sicherheit. Der entsprechende Abschnitt im Text wurde angepasst.



insgesamt 32 Beiträge
Alle Kommentare öffnen
Seite 1
azols 05.05.2019
1. Bedenklich
Gut, dass sich Facebook seiner Verantwortung zu stellen scheint. Bedenklich ist aber, dass ein börsennotierter Konzern die Integrität von demokratischen Wahlen sichern soll. Wollen wir das?
strag 05.05.2019
2.
Das ist doch absurd, das ist doch auch Manipulation wenn Facebook entscheidet was ein Manipulationsversuch ist oder nicht. Da beißt sich doch die Katze in den eigenen Schwanz. Und wer überwacht dann Facebook. Einfach nichts machen und nicht die Menschen geistig entmündigen. Ich brauche keinen Facebookmitarbeiter der mir sagt was ich für wahr oder nicht wahr zu halten habe.
Nonvaio01 05.05.2019
3. Ein bericht aus Dublin
ich arbeite in Dublin und vornehmlich fuer US unternehmen. Bei FB ist es so. 90% sind bei Avarto angestellt mit minmal lohn. FB hat angefangen wohnungen zu kaufen weil der schlechte lohn nicht fuer mieten reicht. (kann man selber Googeln wenn es einer nicht glaubt) Die leute dort haben knall harte targets. was die laender angeht ist es bloedsinn. Es wird Google translate genuztt damit der Spanische angestellte auch Deutsche und Italienische posts lesen kann. es wird geloescht was die angestellten fuer loeschenswert halten, nicht was ein gericht sagt, die meisten dort kennen die gesetzte nicht einmal.
Nonvaio01 05.05.2019
4. bedenklich ist das Sie es glauben
Zitat von azolsGut, dass sich Facebook seiner Verantwortung zu stellen scheint. Bedenklich ist aber, dass ein börsennotierter Konzern die Integrität von demokratischen Wahlen sichern soll. Wollen wir das?
1.5Mrd User weltweit.....was denken Sie wieviel man da machen kann?
didel-m 05.05.2019
5. Das Ganze ist technisch in etwa so machbar wie E-Mobilität oder Beamen
Nämlich gar nicht. Automatisierte Zensur erzeugt entweder nur Unfug oder sperrt gleich alles. Für Letzteres brauche ich aber die komplizierte Technik gar nicht, da reicht der Aus-Schalter. Es hilft alles nichts. Man muß es einfach lernen auszuhalten.
Alle Kommentare öffnen
Seite 1

© SPIEGEL ONLINE 2019
Alle Rechte vorbehalten
Vervielfältigung nur mit Genehmigung


TOP
Die Homepage wurde aktualisiert. Jetzt aufrufen.
Hinweis nicht mehr anzeigen.