Troll-Forscherin Whitney Phillips "Für manche ist Hass ein Job"

Von Troll-Späßen zu tödlichem Hass: Die US-Medienexpertin Whitney Phillips hat die Radikalisierung des Forums 4chan erforscht - auf dessen radikalerer Alternative 8chan der Attentäter von El Paso zelebriert wird.

Hass im Internet: "User, die sich explizit als Frauenfeinde oder Rassisten identifizierten"
Enrique Pellejer/ Getty Images

Hass im Internet: "User, die sich explizit als Frauenfeinde oder Rassisten identifizierten"

Ein Interview von


Das Forum 4chan ist die wohl bekannteste Brutstätte für Trolle und zahlreiche Internetmemes. Die Nutzer posten Kommentare zu Alltag und Politik, Porno-GIFs, aber auch brutale Gewaltfantasien und rassistische Hetze. Im Zuge der "Gamergate"-Kontroverse 2014 hat sich die Community auf 4chan zunehmend radikalisiert. Auf dem noch extremeren Alternativportal 8chan zirkulieren auch Onlinemanifeste rechtsextremer Attentäter, und ihre Taten werden dort verherrlicht, wie zuletzt bei dem Attentäter von El Paso.

Die Medienwissenschaftlerin Whitney Phillips hat ihre Dissertation über Trolle auf 4chan geschrieben, seitdem forscht sie zu Internetkultur und Phänomenen wie Hatespeech.

SPIEGEL ONLINE: Sie haben 2008 angefangen, Trolle auf 4chan zu erforschen. Ging es da früher anders zu?

Phillips: Die Trolle, die ich damals studiert habe, sind nicht die gleichen wie heute. Das motivierende Ethos der Troll-Subkultur war damals: Nichts sollte ernst genommen werden - und "Lulz", also Spaß, war der einzige Grund, überhaupt etwas zu tun. In der Frühzeit der Troll-Subkultur zielten Trolle zwar wie heute auch auf Minderheiten und legten alle möglichen aggressiven Verhaltensweisen an den Tag, aber ihre Angriffstaktik war sehr promiskuitiv. Sie nahmen alle ins Visier - auch Rechtsextreme, Christen, weiße Menschen, was heute vergleichsweise selten vorkommt.

SPIEGEL ONLINE: Was hat sich verändert?

Phillips: Die Aggressoren damals waren auf jeden Fall nicht politisch neutral, aber sie haben sich eben auch keiner speziellen Ideologie zugeordnet. 4chan wurde zum Mainstream, weil die Nutzer der Plattform so viele kreative Inhalte produziert haben, quasi alle Internet-Memes. Zwischen 2008 und 2012 haben Memes und Troll-Kultur sich im Internet ausgebreitet, man konnte überall Troll-Referenzen sehen. 2014 kam der Wendepunkt: die Hass- und Belästigungskampagne "Gamergate", bei der Frauen und People of Color in der Videospieleindustrie angegriffen wurden.

SPIEGEL ONLINE: Inwiefern war "Gamergate" ein Wendepunkt?

Phillips: 4chan war ein Sprungbrett für diese Kontroverse, und dadurch hat die Plattform immer mehr Frauenhasser und Idioten angezogen. Vorher hatte 4chan vor allem Nutzer, die Spaß wollten, und die sich online gerne als Rassisten und Sexisten inszeniert haben - sich aber nicht als solche definiert hätten. Nun kam der Wandel zu Usern, die sich explizit als Frauenfeinde oder Rassisten identifizierten. So ist die ganze Kultur der Plattform nach rechts gerückt.

SPIEGEL ONLINE: Inwiefern hat 4chan auch als Inkubator für die politische Rechte eine Rolle gespielt - auch im Hinblick auf die Wahl von Trump zum Präsidenten?

Phillips: 2015 haben Rechtsextreme in den USA aktiv angefangen, Leute auf 4chan zu rekrutieren und die Plattform aktiv als Sprungbrett genutzt, um ihre Reichweite zu vergrößern. Anderseits haben viele von denen, die online zu rechten Rekruten wurden, gesagt, dass sie auf 4chan zum ersten Mal mit solchen Ideen konfrontiert wurden. Sie wurden also dort radikalisiert. Immer mehr Nutzer erklärten sich zu Unterstützern dieser Bewegung und deren rassistischer Ideologie. Das erschuf ein Gemeinschaftsgefühl - und mit Trumps Kampagne wurde die rechte politische Gesinnung dort fest verwurzelt und zur dominanten Ideologie.

SPIEGEL ONLINE: Welche Rolle spielt 4chan heute?

Phillips: Auch jetzt kommen viele politische Inhalte von 4chan, aber die Plattform ist nicht mehr das kulturelle Zugpferd, das sie bis 2010 war. Viele Inhalte sind explizit rechtsextrem und gewaltverherrlichend - das turnt den Mainstream ab. Heute würden höchstens Rechtsextreme sagen, dass noch Spaß und Popkultur aus 4chan kommen.

SPIEGEL ONLINE: Vielen war die Plattform trotzdem nicht radikal genug - 2013 wurde die noch extremere Alternative 8chan gegründet, auf der auch der Attentäter von El Paso gefeiert wird.

Phillips: Ja, und das war auch ein Ergebnis von "Gamergate". Es mag für einige überraschend sein, die 4chan als eine extremistische Brutstätte betrachten, in der alles möglich ist, aber 4chan ist gegen Diskussionen über "Gamergate" vorgegangen. Das "/pol/-Board" war besonders hart getroffen, da dieses Board der Ursprung von "Gamergate" war. Viele Benutzer beschwerten sich, ihr Recht auf freie Meinungsäußerung würde eingeschränkt, und sie beschlossen, auf die viel freizügigere Website 8chan zu wechseln. Einige Benutzer von 4chan blieben - das "/pol/-Board" ist immer noch sehr beliebt und sehr schrecklich. Einige springen auch zwischen den Plattformen hin und her.

SPIEGEL ONLINE: Wie sollten Gesellschaft und Medien mit dem digital verbreiteten Hass umgehen?

Phillips: Hasskampagnen richten den größten Schaden an, wenn sie von Journalisten verstärkt werden - Manipulateure, aber auch Terroristen versuche Medien oft aktiv dazu zu bringen, über sie zu berichten. Eine Hasskampagne, über die nicht berichtet wird, ist quasi fehlgeschlagen. Auch die Social-Media-Kommentare von denen, die die Attacken verurteilen, tragen zu mehr Aufmerksamkeit bei. Dann wird die Kampagne vielleicht zum Twitter-Trend - und dann berichten wieder mehr Medien darüber. Es ist ein Kreislauf.

SPIEGEL ONLINE: Wie lässt sich dieser Kreislauf brechen - ohne ganz aufs Berichten zu verzichten?

Phillips: Das Wichtigste ist, dass man sich selbst seiner Rolle bewusst ist, sich bewusst ist, dass Nachrichten möglicherweise Kanonenfutter sind und den Hass verstärken könnten. Es sollten auch die größeren Fragen gestellt werden: Warum gibt es einen Markt für Manifeste von Attentätern? Warum wollen Menschen das lesen? Die kommerziellen Interessen von Social Media, aber auch Medien befördern Extremismus und Hass - es werden eher Inhalte veröffentlicht, die viele Klicks bringen.

SPIEGEL ONLINE: Und dazu gehört Hetze?

Phillips: Für manche ist Hass ein Job. Extremismus ist in sozialen Netzwerken wie YouTube längst Teil einer Marketingstrategie. YouTuber, die teils nicht an das glauben, was sie verbreiten - aber das Publikum will extremistische Inhalte und dann wachsen die YouTuber in diese Rolle hinein, weil es ihr Geschäftsmodell ist.

SPIEGEL ONLINE: Bringt es etwas, Hetzer zu verbannen - oder, so wie der IT-Dienstleister Cloudfare, nach dem Attentat nach El Paso 8chan nicht mehr zu unterstützen?

Phillips: Es gibt keine Kur gegen Hass und Rassismus, es gibt auch kein Problem, das sich schnell wegregulieren lässt oder das soziale Netzwerke oder Plattformen mit ihren Algorithmen lösen lassen können. Dahinter stehen strukturelle Missstände, es ist mehr ein gesellschaftliches als ein technologisches Problem. Wird ein Mensch weniger extrem werden, wenn seine Räume weggenommen werden? Wenn du deine Plattform verlierst, änderst du deine Ansichten nicht - stattdessen kann es das verschwörungstheoretische Denken stärken, sie werden radikaler werden, untertauchen.

SPIEGEL ONLINE: Also muss man den Hatern einen Raum lassen?

Phillips: Während die Verbannung als praktikable Lösung erscheinen mag, schafft sie weitere Gefahren, die weniger sichtbar und daher schwieriger zu bekämpfen sind. Wenn man ihnen andererseits erlaubt, auf einer Plattform zu bleiben, entsteht ein unmenschlicher, gewalttätiger Raum. Es gibt keine wirklich gute Lösung. Gleichzeitig ist es schlimmer, nichts zu tun.



insgesamt 14 Beiträge
Alle Kommentare öffnen
Seite 1
fsteinha 06.08.2019
1. Komisches Argument
Zum einem werden Plattformen als Radikalisierung Katalysator dargestellt, zum anderen scheint die Expertin sich zu fürchten, die Hassschleudern abzuschalten. Wer kontrolliert das denn ernsthaft?
vormaerz 06.08.2019
2. Bei den Lösungsvorschlägen
fällt der Propagandaaspekt leichtfertig unter den Tisch. Menschen, insbesondere junge, sind nicht erst mal per se radikal und finden dann ein passendes Forum. Die Radikalisierung verläuft schrittweise, insbesondere verstärkt durch peer groups. Es gibt inzwischen einige Aussteigergeschichten anhand derer sich das nachvollziehen lässt. Und wer außer Hetze nichts findet, mit dem er Geld einnehmen kann, dessen Channel sollte m.E. der Stecker gezogen werden. Jedes Thema lässt sich auch ohne Hetze auf Andere darstellen, zumindest jedes, das auf mehr als Paranoia beruht.
Joachim Kr. 06.08.2019
3. Wir müssen verstehen!
Dass es sich bei diesen Foren um Plattformen handelt, die ganze Bewegungen produzieren (!) erfordert, dass wir genauer verstehen, wie diese Multiplizierung funktioniert. Die Bildung von Blasen ist bekannt, die Bildung von Wellen ebenso. Aber um die Gesellschaft nicht zum Opfer werden zu lassen, müssen Gegenmittel gefunden werden. Gesetze sind ungeeignet, solange die Mechanismen unerklärt sind
locust 06.08.2019
4. @ fsteinha #1
Verstehe Ihre Sichtweise nicht, haben Sie das Interview ganz gelesen? Die selbst beschreibt doch das Dilemma: Schaltet man ab, nährt dies zusätzlich radikale Positionen und Verschwörungstheorien. Schaltet man nicht ab, führt dies zur weiteren Indoktrination und Mobilmachung. Und trotz der Widersprüche stellt sie zurecht fest, dass das schlimmste ist, gar nichts zu tun.
kieselstein 06.08.2019
5. Verhältnismäßigkeit
Auch in Deutschland gibt es solche Foren, zu denen man eingeladen werden muss. Dort werden von "lustigen" Memes bis hin zur Glorifizierung von Gewalttaten alles veröffentlicht und gepriesen. Mit der allgegenwärtigen Drohung dass demjenigen Schlimmes droht der darüber spricht. Wer überwacht sowas? Wie kann es sein dass WhatsApp, Fb, ja sogar Alexa abgehört wird und dort eine vogelfreie Zone herrscht?
Alle Kommentare öffnen
Seite 1

© SPIEGEL ONLINE 2019
Alle Rechte vorbehalten
Vervielfältigung nur mit Genehmigung


TOP
Die Homepage wurde aktualisiert. Jetzt aufrufen.
Hinweis nicht mehr anzeigen.