Patrick Beuth

Soziale Medien und Demokratie Besser mit dem Bösen rechnen

Bisher hat Facebook nicht eingestanden, dass die Plattform auch genutzt wird, um Demokratien zu zersetzen. Nun debattiert der Konzern, ob soziale Medien der Gesellschaft mehr schaden als nützen. Lösungen bietet er nicht.

Facebook bemüht sich, einen Anschein von Selbstzweifel zu wecken. Die Unternehmensleitung stellt mittlerweile öffentlich die Frage, ob das eigene Netzwerk der Demokratie letztlich mehr schadet als nutzt. Ausformuliert hat das diese Woche der für Politik und ziviles Engagement zuständige Produktmanager Samidh Chakrabarti.

"Wenn es eine fundamentale Wahrheit über den Einfluss sozialer Medien auf die Demokratie gibt, dann dass sie menschliche Absichten verstärken - gute wie schlechte", schreibt Chakrabarti in einem Facebook-Blog . Im besten Fall würden sie Menschen helfen, ihre Meinung zu äußern und sich einzumischen. "Im schlechtesten Fall ermöglichen sie es, Falschinformationen zu verbreiten und Demokratien zu zersetzen. Ich wünschte, ich könnte garantieren, dass das Gute letztlich überwiegen wird - aber ich kann es nicht."

10.000 neue Mitarbeiter sollen Hass und Hetze bekämpfen

Die Reaktion auf diese Erkenntnis ist eine für Facebook typische: Am Dienstag kündigte Geschäftsführerin Sheryl Sandberg an, die Löschzentren um weitere 10.000 Mitarbeiter zu erweitern, um Hass und Hetze im Netzwerk zu bekämpfen. Die Symptome werden damit bekämpft, die Ursache nicht.

Das Unternehmen müsste wahrscheinlich nicht ständig Tausende neue Mitarbeiter einstellen, die nachträglich die schlimmsten Auswüchse aufräumen, wenn es stattdessen vorab vom böswilligsten Nutzer ausginge. Zum Beispiel, indem es ihn zum Vorstandsmitglied macht.

Soziale Netzwerke, gerade wenn sie so bedeutend für die Information und Kommunikation ganzer Nationen sind wie Facebook, brauchen einen Chief Devil Officer. Einen Teufel vom Dienst. Dessen einziger Job muss es sein, sich neue Wege auszudenken, das eigene Produkt oder kommende Funktionen für finstere Zwecke zu missbrauchen - bevor es jemand anderes tut.

Gut gemeinte Funktionen werden zu zerstörerischen Werkzeugen

Seine Mission wäre es nicht, Neuerungen komplett zu verhindern. Er müsste aber dafür sorgen, dass sie nicht umgehend zu Demokratiezersetzungswerkzeugen gemacht werden können. Die Haltung passt vielleicht nicht zur optimistischen Grundhaltung der Unternehmen - denn böse Menschen vertragen sich nicht mit ihrer Vision, die Welt mithilfe von Technik besser zu machen. Aber dass einzelne Nutzer, Organisationen oder Regierungen neue Funktionen kapern, lässt sich nicht leugnen. Ein paar Beispiele:

  • Facebooks Angebot, Werbung extrem zielgerichtet auf geradezu mikroskopisch kleine Untergruppen auszurichten ("Microtargeting"), wurde im US-Wahlkampf verwendet für demotivierende Botschaften, die nur bestimmte Clinton-Anhänger zu sehen bekamen und diese vom Wählen abhalten sollten, die sogenannten Dark Ads.
  • Die Beschwerdesysteme, über die Nutzer Inhalte melden können, die gegen die jeweiligen Gemeinschaftsregeln verstoßen, werden weltweit instrumentalisiert, um politische Gegner verstummen zu lassen. Das passiert in Deutschland, wo rechte Gruppen auf Twitter versuchen, Linke sperren zu lassen und umgekehrt. Aber es passiert auch, wie "Buzzfeed" herausgefunden hat , in Kambodscha. Facebook hilft der Regierung des Ministerpräsidenten Hun Sen angeblich bereitwillig beim Sperren von Accounts, sobald diese wegen regierungskritischer Äußerungen gemeldet werden. Oder auch nur, weil der Verfasser ein Pseudonym verwendet, was laut Facebooks Richtlinien nicht erlaubt ist.
  • Das Melden von Urheberrechtsverstößen auf YouTube wird missbraucht von Abzockern , die an Inhalten mitverdienen wollen, an denen sie keinerlei Rechte haben.

Die Liste ist unvollständig. Alles, was zur Waffe gemacht werden kann, wird zur Waffe gemacht. Nicht immer, aber oft politisch motiviert. Die Täter hacken die Netzwerke nicht im klassischen Sinn. Stattdessen nutzen sie die von den Entwicklern prinzipiell beabsichtigten Netzwerkeffekte aus, nur eben in einer extremen Ausprägung und aus einer destruktiven Motivation heraus. Oder wie es Facebooks Sicherheitschef Alex Stamos im vergangenen Jahr auf der Black-Hat-Konferenz in Las Vegas ausdrückte: "Missbrauch ist die technisch korrekte Anwendung eines Produkts, um Schaden zu verursachen."

Den eigenen Dienst missbrauchen, bevor es jemand anderes tut

Der Blogpost von Chakrabarti lässt darauf schließen, dass Facebook keinen Teufelsadvokaten in den eigenen Reihen hat. Ebenso wie die Ankündigung  von Sicherheitschef Stamos vom vergangenen Montag, externen Forschern 100.000 Dollar zu geben, wenn sie neue Wege finden, Missbrauchsversuche aufzudecken. Oder die Unfähigkeit von Facebooks Chefjustiziar Colin Stretch, in einer Anhörung vor dem US-Senat  zu erklären, wie Facebook, Twitter und Google übersehen konnten, dass ihre Plattformen von russischer Seite für die Beeinflussung von US-Wählern benutzt wurden.

Hätte das Unternehmen einen Chief Devil Officer, würde der jetzt versuchen, mit Facebooks anstehender Neuerung schon einmal möglichst viel theoretisches Unheil anzurichten: Zufällig ausgewählte Nutzer sollen nämlich Medien künftig nach ihrer Glaubwürdigkeit bewerten, was Einfluss auf deren Reichweite haben wird. Facebook hofft, dass notorische Verbreiter von Falschnachrichten und Propaganda dadurch an Einfluss verlieren werden, weil die Nutzer ihnen mehrheitlich das Vertrauen entziehen. Klingt gut. Kann genauso gut schiefgehen.