Project Owl Google will Fake News in Suchergebnissen bekämpfen

Im Kampf gegen Fake News setzt Google jetzt darauf, Webseiten von Testpersonen bewerten zu lassen. Doch der eigentliche Job der Tester ist es, die Treffsicherheit der Algorithmen zu verbessern.

Fake-News-Button
DPA

Fake-News-Button


Google hat eine Initiative gestartet, um stärker gegen gefälschte Nachrichten und Hassbotschaften in Netz vorzugehen. Der Internet-Konzern kündigte am Dienstag das "Project Owl" (Projekt Eule) an, mit dem "minderwertiger Content" aus seinen Suchergebnissen und anderen Diensten weitgehend verbannt werden soll. Dabei sollen menschliche Testpersonen den Suchalgorithmus entsprechend trainieren, sagte Google-Ingenieur Pandu Nayak der Nachrichtenagentur dpa.

Für Google seien seit geraumer Zeit weltweit Zehntausende Internet-Anwender aktiv, um Änderungen der Suchformel in einem Blindtest zu bewerten. Dabei bekommen die Tester die Suchergebnisse vor und nach der Algorithmusänderung zu sehen und müssen beurteilen, welches besser ist. In Deutschland seien rund 600 Testpersonen im Einsatz. Die Richtlinien für die Testpersonen seien nun komplett überarbeitet worden.

Anhand von ausführlicheren Beispielen zu Webseiten von minderer Qualität wolle Google es den Testern erleichtern, Seiten angemessen zu melden und zu kennzeichnen, die irreführende Informationen, unerwartet anstößige Suchergebnisse, Falschmeldungen und unbestätigte Verschwörungstheorien enthalten. "Dieses Feedback hat keinen unmittelbaren Einfluss auf das Ranking einzelner Seiten, hilft uns jedoch dabei, Daten zur Qualität unserer Suchergebnisse zu sammeln und Bereiche mit Verbesserungsbedarf zu erkennen", schrieb Ben Gomes, VP of Engineering, Google Search, in einem Blogeintrag.

Plant Obama einen Staatsstreich?

"Es gibt ähnlich wie bei Spam-Mails Leute, die unser System austricksen wollen. Dagegen werden wir nun noch schärfer vorgehen", sagte Nayak. Die Testpersonen sollen im Auftrag von Google allerdings nicht massenhaft ungeeignete Seiten aus den Suchergebnissen herausfiltern, sondern den Algorithmus der Suchmaschine auf eine bessere Erkennung der minderwertigen Inhalte trainieren.

Als Beispiel nannte Nayak die Suchanfrage, ob der ehemalige US-Präsident Barack Obama einen Staatsstreich plane. Bis zum März hatte Google dabei noch an erster Stelle auf einen obskuren Artikel der Website "Secrets of the Fed" verwiesen, in dem Obama vorgeworfen wurde, zusammen mit "kommunistischen Chinesen" einen Coup zu planen. Künftig sollten solche Fehlleistungen vermieden werden.

"Project Owl" sieht auch Änderungen beim Ranking vor: Google habe Suchfaktoren mit Signalwirkung angepasst, damit verlässlichere Seiten angezeigt und Inhalte von minderer Qualität herabgestuft werden können.

Die Initiative umfasst weiterhin die Autocomplete-Funktion bei der Google-Suche. Mit der automatischen Vervollständigung von Suchbegriffen will Google den Nutzern Tipparbeit ersparen. Zum Beispiel bei der Eingabe von "women are" (Frauen sind) habe das System aber zuletzt das Wort "evil" (böse) vorgeschlagen, weil die Funktion bislang ohne Wertung die Begriffe anzeigt habe, die im Netz häufig aufgerufen würden.

Google wird bei den Vorschlägen künftig auf Begriffe verzichten, die als sexuelle Beschimpfung, Hassrede oder als Bedrohung bestimmter Gruppen empfunden werden können. Außerdem bekommen Google-Anwender die Möglichkeit, Autocomplete-Vorschläge zu bewerten und anstößige Worte zu melden. Diese Funktion wird aber zunächst nur auf Englisch verfügbar sein.

Bei der Suche nach "Angela Merkel ist" schlägt Google auf Deutsch aktuell die Worte "tot", "wahnsinnig", "Polin", "schwanger" und "verheiratet" vor.

mak/dpa



insgesamt 14 Beiträge
Alle Kommentare öffnen
Seite 1
frenchie3 25.04.2017
1. Armer Guckel
"auf Begriffe verzichten, die als sexuelle Beschimpfung, Hassrede oder als Bedrohung bestimmter Gruppen empfunden werden können". Na, denn viel Spaß beim Ausblenden. Irgendeine Minderheit wird sich immer auf den Schlips getreten fühlen. Und was in Deutschland anstößig ist gehört woanders vielleicht zum guten Ton. Die Algorythmen müssen mehrsprachlich und multikulturell sein. Ich drücke die Daumen daß sie wenigstens Fake News rausbekommen, da ist schon sehr viel gewonnen
skubidoo09 25.04.2017
2. Sauberkeit
Ist ein Netz ohne gefährdende Seiten denkbar?
KaroXXL 25.04.2017
3. Algorithmen
Aha und wenn dann doch mal etwas Kontroverses, Nichtkonformes, Kritisches absichtlich herausgefiltert wird kann man es immer auf die Algorithmen schieben (die ja noch nicht so perfekt funktionieren). Super Aussichten... Und wieder wird Beifall geklatscht.
Kanalysiert 25.04.2017
4.
Und wie soll der Quark den inhaltlichen Zusammenhang bewerten? Macht doch einfach den berühmten "Fake News melden" Button...gute Güte.
horstu 25.04.2017
5. Ausufernde fake news-Debatte
Verschwörungstheorien sind naturgemäß weder verifizierbar noch falsifizierbar, da sie Aussagen über Dinge treffen, zu denen es keine öffentlichen Quellen gibt; streng genommen sind es also keine Theorien, sondern Behauptungen. Auch Google und seine Testpersonen, die lediglich ihre subjektive Meinung bezüglich der Nutzungsqualität äußern, und keine feste Wahrheit, werden nichts an der Tatsache ändern können, dass man auf Verschwörungstheorien nicht die Kategorien wahr oder falsch anlegen kann, sondern nur plausibel/unplausibel. Im Zuge der Bekämpfung von fake news werden also Nachrichten bekämpft, die mit dichotomen Wahrheitskategorien nicht greifbar sind. So manche Verschwörungstheorie entpuppte sich im Nachhinein als wahr. Fazit: Im Zweifelsfalls lieber stehen lassen, notfalls kann man über eine besonders an den Haaren herbeigezogene Verschwörungstheorie immer noch lachen. Der beste Wahrheitsfilter ist immer noch ein kritischer Nutzer. Weshalb sollte ich mir diese Entscheidungsfreiheit nehmen lassen?
Alle Kommentare öffnen
Seite 1
Diskussion geschlossen - lesen Sie die Beiträge! zum Forum...

© SPIEGEL ONLINE 2017
Alle Rechte vorbehalten
Vervielfältigung nur mit Genehmigung der SPIEGELnet GmbH


TOP
Die Homepage wurde aktualisiert. Jetzt aufrufen.
Hinweis nicht mehr anzeigen.