Filterblase im Internet Facebook-Forscher sprechen Facebook frei

Zementieren Algorithmen unser Weltbild, weil sie uns nur vorsetzen, was uns gefällt? Diesen Vorwurf erheben mehrere Autoren gegen Google, Facebook und Co. Nun soll eine Studie das Gegenteil belegen - die Forscher arbeiten für Facebook.

Facebook, Nutzer: Vorgefiltertes Meinungsbild?
REUTERS

Facebook, Nutzer: Vorgefiltertes Meinungsbild?

Von


Die Studie über den Nachrichtenkonsum von Facebook-Nutzern, die in der aktuellen Ausgabe des Wissenschaftsmagazins "Science" erscheint, ist aus mehreren Gründen ein Politikum. Zunächst wegen des Themas: Es geht um die Frage, inwieweit die Sortier-Algorithmen des größten sozialen Netzwerks der Welt das Weltbild seiner Nutzer beeinflussen. Macht Facebook Rechte rechter und Linke linker, indem es ihnen nur noch das vorsetzt, was zu ihrem Weltbild passt? Erschafft Facebook eine Filterblase? Gefährdet es den demokratischen Diskurs?

Das Ergebnis, zu dem die Forscher kommen, kurz zusammengefasst: Die Entscheidungen der Nutzer selbst wirken sich viel stärker darauf aus, welche Arten von politischer Information sie auf Facebook zu sehen bekommen, als der Sortier-Algorithmus des Netzwerks. Die Studie spricht Facebook gewissermaßen frei von dem Verdacht, durch algorithmische Sortierung die politische Meinung seiner Nutzer zu beeinflussen.

Ein Politikum sind aber auch die Autoren der Studie selbst: Sie arbeiten sämtlich für Facebook. Das Unternehmen hat sich eine eigene Forschungsabteilung zugelegt, um aus den gewaltigen Datenmengen, die das Netzwerk ständig produziert, auch wissenschaftliches Kapital zu schlagen.

"Etwa fünf Prozent weniger gegensätzliche Inhalte"

Für die Studie ermittelten Eytan Bakshy und zwei weitere Facebook-Mitarbeiter die politische Haltung einer gewaltigen Gruppe von Nutzern des Netzwerks - über zehn Millionen US-Bürger. Dann prüften sie, welche Art von Nachrichtenmeldungen und -artikeln diese Nutzer in ihrem Newsfeed zu sehen bekamen - und welche sie tatsächlich anklickten, um weiterzulesen. Dabei stellten sie fest, dass der Facebook-Algorithmus tatsächlich dafür sorgte, dass die Nutzer tendenziell etwas mehr von dem zu sehen bekamen, was zu ihrer eigenen ideologischen Ausrichtung passte. "Konservative sehen etwa fünf Prozent weniger Inhalte aus dem anderen politischen Lager im Vergleich zu dem, was ihre Freunde tatsächlich teilen, während Liberale etwa acht Prozent weniger ideologisch anders gefärbte Inhalte sehen", schreiben sie. Der Filter erzeugt also durchaus eine politische Verzerrung, wenn auch keine sehr große.

Größer sei der Einfluss der persönlichen Entscheidungen der Nutzer gewesen, so die Forscher. Konservative klickten überproportional häufig auf Nachrichten aus konservativen Quellen, Liberale etwas häufiger auf Nachrichten aus liberalen Quellen. Insgesamt, folgern die Forscher, würden "individuelle Entscheidungen die Konfrontation mit Inhalten, die der eigenen Haltung zuwiderlaufen, stärker einschränken als Algorithmen".

Der Redaktion von "Science" war selbstverständlich bewusst, dass die Veröffentlichung dieser Studie für Kritik sorgen würde. Sie entschied sich deshalb, dem Forschungsbericht einen einordnenden Gastbeitrag eines unabhängigen Wissenschaftlers zur Seite zu stellen. Der Datensatz und die Bereitschaft Facebooks, solche Forschung zu finanzieren, sei eindrucksvoll, schreibt David Lazer von der Northeastern University. Es bestehe aber die Gefahr, dass "die einzigen Leute, die Facebook erforschen können, Forscher bei Facebook sind". Das könne die Wissenschaft "ungesund" beeinflussen, so Lazer.

Kritik an den eigenen Kritikern

Die Ergebnisse der Studie aber zieht er nicht in Zweifel, und es ist davon auszugehen, dass das renommierte Magazin "Science" in diesem Fall besonders gründlich hat prüfen lassen, ob die Daten und Auswertungen der Studie tatsächlich wissenschaftlichen Standards genügen. Gleichwohl bleibt ein seltsames Gefühl, wenn die Autoren nicht nur ihre Ergebnisse referieren, sondern konkret Stellung in der Debatte beziehen, ob soziale Netzwerke womöglich eine "Filterblase" erzeugen. So hat der Buchautor Eli Pariser das Phänomen getauft, dass er selbst bei Facebook eher Verweise auf Artikel findet, die zu seiner eigenen politischen Haltung passen.

"Unsere Arbeit legt nahe, dass Personen über soziale Medien mehr gegensätzlichen [politischen] Diskursen ausgesetzt werden, als dies in der digitalen Realität der Fall wäre, die sich manche ausmalen", ist nun in "Science" zu lesen - in Klammern folgt auf diesen Satz ein Literaturverweis auf Parisers Buch "Filter Bubble: Wie wir im Internet entmündigt werden".

Das klingt dann doch eher so, als wehrten sich Angestellte eines großen Unternehmens gegen Kritik an den Praktiken dieses Unternehmens.



Forum - Diskutieren Sie über diesen Artikel
insgesamt 15 Beiträge
Alle Kommentare öffnen
Seite 1
leierbündchen 07.05.2015
1. Stabilisieren
Nicht nur die Algorithmen, die Facebook womöglich nutzt, stabilisieren das Weltbild des Nutzers. Auch Google und Amazon bemühen sich, uns das zu präsentieren, was zu unserem bisherigen Profil passt. Das, wozu Menschen ohnehin neigen, nämlich nach Bestätigung für die eigene Meinung zu suchen, wird im Web vielfach unterstützt. Auf Facebook bilden sich Gruppen von Menschen, die sich gegenseitig der absurdesten Vorstellungen versichern und die wenigen, die dem widersprechen, als Trolle diffamieren oder gleich rausschmeißen. Es bilden sich intellektuell unbefriedigende aber für den Konsum günstige Strukturen aus. Ich versuche deshalb, diese "Matrix" bewusst zu durchbrechen.
Sabbelbacke 07.05.2015
2. Wer beeinflusst hier wen?
Zitat: "Es geht um die Frage, inwieweit die Sortier-Algorithmen des größten sozialen Netzwerks der Welt das Weltbild seiner Nutzer beeinflussen." Diese Frage sollten sich eher unsere sog. Mainstream-Medien stellen. Ganz ohne Algorithmus. Von echter Ausgewogenheit ist da nur marginal etwas zu spüren. Aber es bessert sich. Da bin ich optimistisch.
uranmaschine 08.05.2015
3. Den Bock
zum Gärtner zu machen ist immer praktisch, zumal sich der Bock nicht über die Scheiße beschwert, die er im Garten hinterlässt, wenn er dauernd frisst und abführt; ist ja Dünger. Praktisch. Der Mensch der durch den Garten wandeln will muss dann halt stetig Obacht walten lassen und kann der Scheiße trotzdem nicht entgehen, weil inzwischen der ganze Garten mit Kot bedeckt ist. Es gibt doch keine(n) Seite(Garten) mehr die(der) nicht diesen albernen “like-button“ im Portfolio hat. Selbst ich als Nicht-Facebook-Nutzer bin ja quasi bei Facebook. Solange ich mich nicht anmelde als IP-Adresse und somit noch “anonym“; derzeit und auch bis in weite Zukunf. Keinen juckt es wie dieser Krake das ganze Leben mitschneidet und überwacht. Ich will ehrlich sein: Lieber gebe ich meine Daten an (m)einen Staat weiter und lasse zu, dass dieser Staat auch Daten von mir abschröpft als meine Daten einem algorithmusbasierten, gewinnorientierten und unkontrollierte Unternehmen zu überlassen, das bestimmt welche Werbung toll für mich ist und mit meinen Daten (theoretisch) jeden Schindluder treiben kann/darf und damit auch noch Geld bar jeder Vernunft verdient. Eine Regierung die so etwa macht ist unter wesentlich mehr Kontrolle und ich habe (theoretisch) die Möglichkeit Einfluss zu nehmen; mehr auf jeden Fall als bei im Ausland sitzenden Firmen die sich jedweder Kontrolle entziehen.
jakam 08.05.2015
4.
Facebook selektiert doch sogar innerhalb der eigenen Freunde, was man angezeigt bekommt. Diese Frechheit nennt sich "Hauptmeldungen". Was kaum Jemand weiß und deshalb die meisten nie was von Freunden lesen/sehen, die eher selten posten. Selektion ohne Autorisation.
weiß+blau 08.05.2015
5. Spiegel-Forscher...
Erklären VDS für rechtswidrig... geht auch andersrum;-)
Alle Kommentare öffnen
Seite 1

© SPIEGEL ONLINE 2015
Alle Rechte vorbehalten
Vervielfältigung nur mit Genehmigung der SPIEGELnet GmbH


TOP
Die Homepage wurde aktualisiert. Jetzt aufrufen.
Hinweis nicht mehr anzeigen.