Präsidentschaftswahl in Brasilien Facebook-Konzern Meta toleriert offenbar irreführende Wahlwerbung

Facebook betont gern seine Anstrengungen gegen antidemokratische Manipulationen. Aktivisten gelang es dennoch, gegen viele von Metas Regeln zu verstoßen.
Facebook-App auf dem Smartphone: Das soziale Netzwerk ist ein wichtiger Faktor im brasilianischen Wahlkampf

Facebook-App auf dem Smartphone: Das soziale Netzwerk ist ein wichtiger Faktor im brasilianischen Wahlkampf

Foto: Jenny Kane / AP

Die Stimmung vor der Präsidentschaftswahl in Brasilien Anfang Oktober heizt sich derzeit auf, doch der Facebook-Konzern Meta versagt beim Kampf gegen Desinformation, behauptet die Nichtregierungsorganisation Global Witness. In einem Experiment verstießen die Experten gezielt gegen Facebooks eigene Regeln für den brasilianischen Wahlkampf, ihre Anzeigen wurden dennoch freigeschaltet.

Meta selbst wirbt derzeit mit seinen verschärften Anstrengungen gegen Desinformation. Wie der Konzern betont, setze er mittlerweile weltweit über 40.000 Menschen im Kampf gegen Falschinformationen und gezielte Kampagnen ein und investiere fünf Milliarden Dollar. Im Vorfeld der brasilianischen Wahl arbeite man mit den zuständigen Behörden zusammen, um Wählerinnen und Wähler darüber aufzuklären, wie sie an der Wahl teilnehmen und Falschinformationen erkennen können. Der Konzern verhindere auch, dass sich Falschmeldungen auf WhatsApp ungebremst verbreiten können.

Experiment mit unzulässiger Werbung

»Zum ersten Mal wird der Oberste Wahlgerichtshof in der Lage sein, Inhalte direkt auf Facebook und Instagram zu melden, die gegen unsere Richtlinien verstoßen könnten«, beschreibt Meta  die eigenen Anstrengungen. Dem SPIEGEL teilte das Unternehmen mit, vor den Kommunalwahlen im Jahr 2020 insgesamt 140.000 Beiträge auf Facebook und Instagram gelöscht und 250.000 unzulässige politische Anzeigen zurückgewiesen zu haben.

Die in London, Brüssel und Washington ansässige Organisation Global Witness hat die aktuellen Bemühungen auf die Probe gestellt: Sie schaltete zehn Anzeigen, die klar gegen jene Regeln verstoßen, die sich Facebook für den brasilianischen Wahlkampf selbst gegeben hat. Fünf der Anzeigen verbreiteten Falschinformationen über den Wahlprozess – etwa, wo und wann man seine Stimme abgeben kann. Fünf weitere Anzeigen enthielten Botschaften, die die Wahl selbst delegitimierten. Dazu gehört etwa die Ablehnung von Wahlcomputern, wie sie derzeit vom Amtsinhaber Jair Bolsonaro selbst geschürt wird . Das Ergebnis: Alle zehn Anzeigen wurden von Facebook bewilligt.

Da die Anzeigen aber nicht ausgespielt wurden, kamen einige der Maßnahmen des Social-Media-Konzerns nicht zum Tragen. Sie basieren darauf, dass Nutzer verdächtige Beiträge melden sollen. Allerdings nimmt Meta für sich in Anspruch, dass die eigenen Algorithmen Manipulationen auch ohne Nutzereingaben gut erkennen können. Dank künstlicher Intelligenz könnten diese 99,7 Prozent von Fake-Profilen entfernen, bevor sie von Nutzern gemeldet würden.

Die Nichtregierungsorganisation machte es dem Konzern nach eigenen Angaben besonders leicht, die Manipulationen zu entdecken. Sie schaltete die Anzeigen nicht aus Brasilien selbst, sondern von IP-Adressen aus Nairobi und London – eigentlich deutliche Alarmsignale für die Moderatoren, die Facebook einsetzt.

»Es ist klar, dass Facebooks Maßnahmen zur Wahlintegrität einfach unwirksam sind«, schreibt Global Witness in seinem Fazit. »Meta muss erkennen, dass der Schutz der Demokratie nicht optional ist: Er gehört zu den Kosten des Geschäftsbetriebs«. Die Nichtregierungsorganisation fordert daher verschärfte Anstrengungen des Konzerns in diesem und allen weiteren Wahlkämpfen. So sollen Moderatoren besser geschult und alle geschalteten Anzeigen zur Untersuchung durch Dritte transparent gemacht werden.

Zwar veröffentlicht Facebook Wahlwerbung in einem transparenten Verfahren, der Urheber einer Anzeige und die Ausgaben offenlegt. Doch dazu müssen die Werbeanzeigen vorher von den Auftraggebern selbst als Wahlwerbung gekennzeichnet werden.

tmk
Die Wiedergabe wurde unterbrochen.