Regulierung sozialer Netzwerke Sieben Ideen, sie zu zähmen

Wer den sozialen Netzwerken ihre Macht über Meinungsäußerungen wegnehmen will, muss auch sagen, wer sie bekommen soll. Die Politik? Die Polizei? Die Community? Sieben mögliche Strategien gegen Onlineextremismus.
Demonstranten im Kapitol: Im Netz offen und enthemmt geplant

Demonstranten im Kapitol: Im Netz offen und enthemmt geplant

Foto: Manuel Balce Ceneta / AP

Jack Dorsey klang zerknirscht: »Ich feiere nicht und bin nicht stolz darauf, dass wir @realDonaldTrump von Twitter verbannen mussten«, schrieb der Twitter-Chef  am Donnerstag auf seiner Plattform. »Ich finde, ein Rausschmiss ist letztlich ein Versagen unsererseits, eine gesunde Debatte zu fördern.«

In diesem Fall sei die Entscheidung richtig gewesen, es sei schließlich darum gegangen, die öffentliche Sicherheit nicht zu gefährden. Aber sie habe auch etwas demonstriert, das er selbst für »gefährlich« halte, nämlich »die Macht, die ein Individuum oder ein Unternehmen über einen Teil der globalen öffentlichen Unterhaltung hat«.

Mehrere Politiker hatten nach dem Sturm auf das Kapitol in Washington weniger nachdenklich, sondern eher reflexartig mit unbestimmten Forderungen nach strengerer Regulierung der sozialen Netzwerke reagiert. Exemplarisch sei die niederländische EU-Abgeordnete Kim van Sparrentak von der Fraktion der europäischen Grünen genannt. Sie sagte : »Wir müssen den privaten Unternehmen die Macht über unsere Meinungsfreiheit aus den Händen nehmen und zurück in die von demokratischen Institutionen legen.« Als ob das die einfachste Sache der Welt wäre. Als ob Regierungen automatisch die besseren Hüter der Meinungsfreiheit wären.

Wer soll, durch wen legitimiert, bestimmen dürfen, wie eine Äußerung im Netz auszulegen ist? Wer darf die Macht haben, einen Präsidenten stummzuschalten und damit auch Millionen von Menschen vorzuenthalten, was ihr Staatsoberhaupt von sich gibt? Wer könnte solche Entscheidungen in einer der Technik angemessenen Geschwindigkeit treffen? Wer darf an welchem Ort der Erde die Grenzen für mehr oder weniger global verfügbare Inhalte ziehen?

Über solche Fragen zerbrechen sich Fachleute seit Jahren die Köpfe . Jede bisherige Antwort kollidiert an der einen oder anderen Stelle mit der Realität, weshalb manche den Eindruck bekommen, es geschehe nichts.

Dabei gibt es neben den Experimenten und ständigen Anpassungen der Netzwerke selbst mehrere weitere Konzepte und Alternativen zum Umgang mit Meinungsäußerungen, digitalen Mobs und ihren Cheerleadern:

1. Straftaten in alternativen sozialen Netzwerken konsequent verfolgen

In alternativen sozialen Netzwerken und Foren wie Parler, Gab, TheDonald oder einigen Telegram-Kanälen ist der Sturm auf das Kapitol im Vorfeld besonders offen und enthemmt geplant worden. Wer den Rechtsextremismus bekämpfen will, muss hier ermitteln. Denn auch wenn die Seiten im Vergleich zu Facebook, YouTube und Twitter nur einen Bruchteil der Nutzerinnen und Nutzer haben, so sind sie längst keine kleine Nische mehr. Angemeldet sind auf Seiten wie Gab und Parler mehrere Millionen Nutzer und Nutzerinnen. Es gibt deutschsprachige Kanäle zur QAnon-Verschwörungsideologie mit Zehntausenden Mitgliedern.

Trotzdem konzentrieren sich die deutschen Ermittlungsbehörden in ihrem Kampf gegen Hatespeech auf die großen sozialen Netzwerke wie Facebook, Twitter und YouTube. Das Netzwerkdurchsetzungsgesetz, mit dem Onlinehetze und Rechtsextremismus im Netz bekämpft werden sollen, reguliert nur die großen Plattformen.

»Die Enthemmtheit der Beiträge auf den alternativen Plattformen führt dazu, dass sich die Anhänger der Bewegung radikalisieren und dass Gewalt normalisiert wird«, sagt Netzexperte Miro Dittrich zur Bedeutung alternativer Netzwerke für das Überschwappen der Gewalt auf die Straße. »Was sich in digitalen Räumen abspielt, wird von den Sicherheitsbehörden immer noch nicht ernst genommen und als echtes Problem gesehen«, kritisiert Dittrich, der seit Jahren die Radikalisierung im Netz beobachtet.

Der Fall der QAnon-Bewegung zeigt, wie sich rechtsextremistische Verschwörungsmythen zuerst auf kleineren Seiten verbreiten, dann auf etablierten Plattformen kursieren und schließlich zu Gewalt auf der Straße führen. »Gerade die falschen Thesen von einer Fälschung der Wahl wurden immer wieder zuerst in obskuren Internetforen von QAnon-Anhängern gepostet und dann dankbar vom Trump-Umfeld auf größeren Plattformen aufgegriffen«, so Dittrich.

Diese Wechselwirkung zwischen alternativen sozialen Netzwerken und einigen konservativen Politikern und Medien dürfe man nicht unterschätzen, warnt Dittrich: »Die Rechtsextremen können sich darauf verlassen, dass rechte Medien und Teile der Republikaner ihre Thesen aufgreifen und sie legitimieren«, sagt er in Bezug auf Medien wie Fox News oder den TV-Sender One America News Network (OANN) und auf einige republikanische Politiker, die offen QAnon-Thesen wiederholen.

2. Widerspruch aus der Zivilgesellschaft

Neben Strafverfolgung, staatlicher Regulierung und Löschungen durch Unternehmen gibt es noch eine weitere Strategie im Kampf gegen Onlinehetze: Mit dem Ansatz der Gegenrede versuchen Ehrenamtliche wie Katja Schrickel gegen hetzerische Inhalte in sozialen Netzwerken zu argumentieren. Wenn sie und die anderen ehrenamtlichen Mitglieder des Vereins »Ich bin hier« mitbekommen, dass rassistische Inhalte und Falschaussagen in Kommentarspalten auf Facebook Überhandzunehmen drohen, versuchen sie mit Fakten und Argumenten dagegenzuhalten.

»Wir wollen so verhindern, dass Kommentatoren sich unwidersprochen immer weiter radikalisieren und die Stimmung in den Kommentarspalten nur in eine Richtung umschlägt«, sagt Schrickel, die sich seit fast vier Jahren in dem als Facebook-Gruppe gestarteten Verein engagiert. Natürlich habe das Konzept der Gegenrede Grenzen, so die 59-Jährige, doch man solle den Kampf gegen Onlinehetze nicht nur den Konzernen überlassen. »Ich bin dagegen, dass wir die öffentliche Debatte allein dadurch gestalten wollen, dass die Konzerne Konten löschen.«

Neben »Ich bin hier« gibt es noch weitere zivilgesellschaftliche Organisationen, die sich mit Gegenrede engagieren. Sie zu fördern, wäre eine verhältnismäßig unkomplizierte Maßnahme, um die Stimmung im Netz zumindest etwas zu deradikalisieren.

3. Einheitliche Regeln, einheitliche Durchsetzung

Facebook beschäftigt rund 15.000 sogenannte Content Moderatoren, die im Auftrag des Unternehmens Videos, Bilder und Kommentare daraufhin prüfen. Sie sollen feststellen, ob Inhalte gegen die Regeln des Unternehmens verstoßen oder nicht. Auch YouTube und Twitter beschäftigen solche Löscharbeiter. Doch nach welchen Regeln die Moderatoren arbeiten, ist nicht transparent und nicht konsistent.

Menschenrechtsaktivisten kritisieren die Techkonzerne außerdem seit Jahren dafür , dass ihre Moderatoren auch extreme Gewaltaufforderungen nicht löschen. In Ländern wie Sri Lanka, Indien oder Myanmar kursierten online zahlreiche Gewaltaufrufe, während es auf den Straßen zu schweren Verbrechen kam.

4. Regulierung, die für Beschwerdemöglichkeiten und Transparenz sorgt

Noch ist es nur ein Vorschlag der EU-Kommission, aber das Digitale-Dienste-Gesetz hätte in seiner jetzigen Form spürbaren Einfluss auf die sozialen Netzwerke. Es soll unter anderem dafür sorgen, dass die Meldung illegaler Inhalte an die Betreiber der Netzwerke vereinfacht wird und dass Menschen, die sanktioniert werden, ein Widerspruchsrecht bekommen. Eine Plattform wie Facebook soll einmal im Jahr eine Bewertung zu »signifikanten systemischen Risiken« vornehmen, die von den Posts und Werbeanzeigen sowie von den Moderations- und Empfehlungssystemen ausgehen könnten.

Die Unternehmen würden zudem verpflichtet, unabhängige Untersuchungen ihres Risikomanagements zuzulassen. Kurz: Mehr Kontrollen von außen und verschärfte Transparenzpflichten sollen die großen sozialen Netzwerke zwingen, schärfer als bisher gegen den versuchten Missbrauch ihrer Plattformen vorzugehen oder ihn zu verhindern. Bei systematischen Verstößen drohen hohe Strafen. All das greift langjährige Forderungen von Digitalexperten auf.

Selbst ein Anti-Troll-Absatz ist im Digitale-Dienste-Gesetz enthalten: Wer »regelmäßig« Inhalte als illegal meldet, obwohl sie es nicht sind, soll erst gewarnt und dann vorübergehend vom Meldesystem ausgeschlossen werden. Was nach einem Detail aussehen mag, zeigt, dass sich die Kommission auch mit den Taktiken von Störenfrieden beschäftigt hat, die versuchen, die Moderationssysteme der Netzwerke zu überfordern und dazu zu bringen, unschuldige Nutzerinnen und Nutzer zu sperren.

5. Unabhängige Aufsicht durch Plattform-Räte

Externe Aufsicht ist ein weiterer Ansatz, mehr Kontrolle und Transparenz zu schaffen. Der Medienwissenschaftler Bernhard Pörksen hat bereits 2018 sogenannte Plattform-Räte ins Spiel gebracht. Darunter versteht er »eine neu zu gründende Institution als Anlaufstelle, Schiedsrichter und Korrekturinstanz von Fehlentscheidungen«, wie er in seinem Buch »Die große Gereiztheit« schreibt. »In einem solchen Plattform-Rat kämen Plattformbetreiber, Journalisten, Verleger, Wissenschaftler und Vertreter der verschiedenen gesellschaftlichen Gruppen zusammen.« Sie sollten »die inzwischen gefährlich normal scheinende und seltsam natürlich wirkende Intransparenz der publizistischen Vorentscheidungen durch Plattformbetreiber der allgemeinen Analyse und der öffentlichen Kritik zugänglich« machen.

Kurz: Mehr Informationen über die Abläufe bei der Moderation von Inhalten helfe den Nutzerinnen und Nutzern, sich darüber klar zu werden, ob es die richtige Plattform für sie ist. Facebooks im Oktober 2020 gestartetes Oversight Board ist mit diesem Konzept grob vergleichbar, auch wenn es in erster Linie eine Beschwerdestelle für herausgehobene Fälle von Löschungen und Sperren auf Facebook und Instagram ist.

6. Ein öffentlich-rechtliches soziales Netzwerk

Für manche liegt die Antwort auf überbordenden Hass und Hetze überhaupt nicht in einer Reform der Silicon-Valley-Plattformen, sondern in gänzlich anderen Netzwerken. Immer mal wieder rufen Experten zum Beispiel nach einem öffentlich-rechtlichen sozialen Netzwerk , das zumindest frei von den wirtschaftlichen Zwängen der Privatunternehmen wäre – und organisiert und kontrolliert wie zum Beispiel ARD und ZDF. Eine Grundannahme ist, dass Algorithmen, die Inhalte nicht nach ihrem Konflikt- und damit Klickpotenzial gewichten, sowie divers aufgestellte Aufsichtsgremien ein zivileres Umfeld schaffen würden.

7. Freiwillige Selbstmoderation

Weitere Alternativen finden sich bereits im sogenannten  Fediverse . Darin sind viele kleinere Communities über ein gemeinsames technisches Protokoll miteinander verbunden. Sie werden aber unabhängig voneinander gepflegt und von Freiwilligen aus der jeweiligen Community moderiert. Das macht es – zumindest, solange die einzelnen Gruppen überschaubar sind – leichter, einen zivilen Umgang durchzusetzen.

Zudem bleibt als letzte Option immer auch die Möglichkeit des »defederating«: So versuchte das von vielen Rechten genutzte Netzwerke Gab 2019, mit einer eigenen Präsenz im Fediverse Fuß zu fassen. Doch den anderen Gemeinschaften gelang es, eine Strategie gegen Gab zu entwickeln: Sie beschlossen, Gab zu isolieren und keinen Austausch zuzulassen. Das »defederating« bestand darin, dass sie den technisch möglichen Austausch zwischen Gab und allen anderen Mini-Netzwerken kappten. Gab-Nutzer konnten dadurch nicht im ganzen Fediverse ihr Unwesen treiben, sondern nur in den wenigen Bereichen, die das weiter zuließen. Schnell gab Gab auf  und verließ das föderierte, dezentrale Netzwerk der Netzwerke wieder.