Filterblase im Internet Facebook-Forscher sprechen Facebook frei

Zementieren Algorithmen unser Weltbild, weil sie uns nur vorsetzen, was uns gefällt? Diesen Vorwurf erheben mehrere Autoren gegen Google, Facebook und Co. Nun soll eine Studie das Gegenteil belegen - die Forscher arbeiten für Facebook.
Facebook, Nutzer: Vorgefiltertes Meinungsbild?

Facebook, Nutzer: Vorgefiltertes Meinungsbild?

Foto: DADO RUVIC/ REUTERS

Die Studie über den Nachrichtenkonsum von Facebook-Nutzern, die in der aktuellen Ausgabe des Wissenschaftsmagazins "Science" erscheint, ist aus mehreren Gründen ein Politikum. Zunächst wegen des Themas: Es geht um die Frage, inwieweit die Sortier-Algorithmen des größten sozialen Netzwerks der Welt das Weltbild seiner Nutzer beeinflussen. Macht Facebook Rechte rechter und Linke linker, indem es ihnen nur noch das vorsetzt, was zu ihrem Weltbild passt? Erschafft Facebook eine Filterblase? Gefährdet es den demokratischen Diskurs?

Das Ergebnis, zu dem die Forscher kommen, kurz zusammengefasst: Die Entscheidungen der Nutzer selbst wirken sich viel stärker darauf aus, welche Arten von politischer Information sie auf Facebook zu sehen bekommen, als der Sortier-Algorithmus des Netzwerks. Die Studie spricht Facebook gewissermaßen frei von dem Verdacht, durch algorithmische Sortierung die politische Meinung seiner Nutzer zu beeinflussen.

Ein Politikum sind aber auch die Autoren der Studie selbst: Sie arbeiten sämtlich für Facebook. Das Unternehmen hat sich eine eigene Forschungsabteilung zugelegt, um aus den gewaltigen Datenmengen, die das Netzwerk ständig produziert, auch wissenschaftliches Kapital zu schlagen.

"Etwa fünf Prozent weniger gegensätzliche Inhalte"

Für die Studie ermittelten Eytan Bakshy und zwei weitere Facebook-Mitarbeiter die politische Haltung einer gewaltigen Gruppe von Nutzern des Netzwerks - über zehn Millionen US-Bürger. Dann prüften sie, welche Art von Nachrichtenmeldungen und -artikeln diese Nutzer in ihrem Newsfeed zu sehen bekamen - und welche sie tatsächlich anklickten, um weiterzulesen. Dabei stellten sie fest, dass der Facebook-Algorithmus tatsächlich dafür sorgte, dass die Nutzer tendenziell etwas mehr von dem zu sehen bekamen, was zu ihrer eigenen ideologischen Ausrichtung passte. "Konservative sehen etwa fünf Prozent weniger Inhalte aus dem anderen politischen Lager im Vergleich zu dem, was ihre Freunde tatsächlich teilen, während Liberale etwa acht Prozent weniger ideologisch anders gefärbte Inhalte sehen", schreiben sie. Der Filter erzeugt also durchaus eine politische Verzerrung, wenn auch keine sehr große.

Größer sei der Einfluss der persönlichen Entscheidungen der Nutzer gewesen, so die Forscher. Konservative klickten überproportional häufig auf Nachrichten aus konservativen Quellen, Liberale etwas häufiger auf Nachrichten aus liberalen Quellen. Insgesamt, folgern die Forscher, würden "individuelle Entscheidungen die Konfrontation mit Inhalten, die der eigenen Haltung zuwiderlaufen, stärker einschränken als Algorithmen".

Der Redaktion von "Science" war selbstverständlich bewusst, dass die Veröffentlichung dieser Studie für Kritik sorgen würde. Sie entschied sich deshalb, dem Forschungsbericht einen einordnenden Gastbeitrag eines unabhängigen Wissenschaftlers zur Seite zu stellen. Der Datensatz und die Bereitschaft Facebooks, solche Forschung zu finanzieren, sei eindrucksvoll, schreibt David Lazer von der Northeastern University. Es bestehe aber die Gefahr, dass "die einzigen Leute, die Facebook erforschen können, Forscher bei Facebook sind". Das könne die Wissenschaft "ungesund" beeinflussen, so Lazer.

Kritik an den eigenen Kritikern

Die Ergebnisse der Studie aber zieht er nicht in Zweifel, und es ist davon auszugehen, dass das renommierte Magazin "Science" in diesem Fall besonders gründlich hat prüfen lassen, ob die Daten und Auswertungen der Studie tatsächlich wissenschaftlichen Standards genügen. Gleichwohl bleibt ein seltsames Gefühl, wenn die Autoren nicht nur ihre Ergebnisse referieren, sondern konkret Stellung in der Debatte beziehen, ob soziale Netzwerke womöglich eine "Filterblase" erzeugen. So hat der Buchautor Eli Pariser das Phänomen getauft, dass er selbst bei Facebook eher Verweise auf Artikel findet, die zu seiner eigenen politischen Haltung passen.

"Unsere Arbeit legt nahe, dass Personen über soziale Medien mehr gegensätzlichen [politischen] Diskursen ausgesetzt werden, als dies in der digitalen Realität der Fall wäre, die sich manche ausmalen", ist nun in "Science" zu lesen - in Klammern folgt auf diesen Satz ein Literaturverweis auf Parisers Buch "Filter Bubble: Wie wir im Internet entmündigt werden".

Das klingt dann doch eher so, als wehrten sich Angestellte eines großen Unternehmens gegen Kritik an den Praktiken dieses Unternehmens.