Mehr Transparenz: Was wir von Suchmaschinen wissen wollen

Ein Gastbeitrag von Jürgen Geuter

Google und andere Suchmaschinen sind nicht neutral, sie nehmen Bewertungen vor. Nur so können wir im ständig wachsenden Internet noch sinnvoll etwas finden. Aber damit Nutzer den Suchdiensten vertrauen können, müssen die sich endlich an ein paar Spielregeln halten.

Suchmaschinen: Unsere Sicht auf die digitale Gesellschaft Zur Großansicht
DPA

Suchmaschinen: Unsere Sicht auf die digitale Gesellschaft

Die ständig wachsenden Datenmengen im Internet sind heute ohne Suchmaschinen nicht mehr zu beherrschen. Dabei kommt ihnen eine besondere Bedeutung zu: Denn was nicht gefunden werden kann, existiert nicht. Die Suchmaschine ist heute für viele der direkte Zugang zum Netz, die Startseite.

Nun werden die erfolgreichen Suchmaschinen, allen voran Google, nicht von am Gemeinwohl orientierten Organisationen betrieben, sondern von marktwirtschaftlich operierenden, globalen Konzernen. Neben einer Suchmaschine bieten sie weitere Produkte an: Google und Microsoft haben Kartendienste, Office-Produkte, soziale Netzwerke.

So besteht immer die Gefahr, dass die Suchmaschinenanbieter die eigenen Dienste bevorzugen: Welches Interesse hätte Microsoft daran, Googles konkurrierenden Kartendienst oder gar das Community-Projekt Open Street Map zu mehr Popularität zu verhelfen? Google Maps wird bei Google immer prominent beworben, auch wenn Open Street Map mitunter die besseren Ergebnisse liefert.

Nutzer müssen Ansprüche stellen

In diesem Zusammenhang von Suchmaschinen Neutralität zu fordern, funktioniert leider nicht: Es ist ja gerade der Sinn einer Suchmaschine, Inhalte zu bevorzugen, und zwar genau die, die den Nutzer oder die Nutzerin gerade interessieren. Wichtiger wäre die Forderung nach einer strikten Trennung von Suchergebnissen und der Werbung für eigene Angebote.

Eine andere Forderung ist die nach der Offenlegung der Kriterien, nach denen Treffer sortiert werden: Wenn wir nur genau nachvollziehen können, wie die Bewertung funktioniert, dann können wir Manipulationen erkennen. Nur wäre ein offener Algorithmus leider auch gefundenes Fressen für alle, die Suchmaschinenspam verbreiten, also Inhalte mit Tricks in den Ergebnislisten hochspülen. Ein offener Algorithmus würde zu nutzlosen Suchergebnissen führen.

Wenn uns aber Suchmaschinenneutralität oder ein offener Algorithmus nicht weiterbringen, müssen wir Ansprüche an eine Suchmaschine stellen. Ansonsten können uns die Anbieter auch gegen unsere Interessen ihre Interpretation des Webs unterschieben.

1. Interpretation: Meint "Schwalbe" in der Anfrage einen Vogel oder einen Motorroller? Um passende Ergebnisse zu präsentieren, machen Suchmaschinen Annahmen über ihre Nutzer und Nutzerinnen. Entweder aufgrund des angelegten Profils oder der Zusammenstellung der Anfragebegriffe versucht die Suchmaschine zu verstehen, was gemeint ist. Die Suchmaschine Wolfram Alpha ist dort Vorreiter und zeigt immer deutlich an, wie sie gegebene Annahmen interpretiert. Das ist vorbildlich. Solche Annahmen sollten auch deaktivierbar und korrigierbar sein.

2. Transparenz: Es geht bei Suchmaschinen nicht nur darum, welche Ergebnisse sie zeigen, sondern auch, welche sie nicht zeigen. Für das Entfernen eines Links existieren viele legitime und legale Gründe. Trotzdem ist es relevant zu wissen, wo genau in Suchergebnisse eingegriffen wurde. Es gibt von einigen Suchmaschinen erste Implementierungen. Doch diese ersten Ansätze, wie sie zum Beispiel Google zeigt, sind noch nicht präzise genug. Die Information, was aus rechtlichen Gründen entfernt wurde, gehört integral zu den Suchergebnissen dazu.

3. Quellen: Suchmaschinen bedienen sich sehr unterschiedlicher Datenquellen: Neben den öffentlich zugänglichen Webseiten im Internet haben die Suchmaschinenanbieter oft Verträge mit den Besitzern nicht-öffentlicher Daten, um diese in unterschiedlicher Form einzubinden. Dazu gehören zum Beispiel ganze Bücher oder Fahrpläne. Über moderne Suchmaschinen lassen sich also auch Inhalte finden, für deren Zugriff die Nutzer dann Geld zahlen oder sich einen Account anlegen müssen. Um zu wissen, welche Daten eine Suchmaschine berücksichtigt (und welche nicht), muss Transparenz über die Quellen hergestellt werden.

4. Nachvollziehbarkeit: Die Informationen darüber, was die Suchergebnisse beeinflusst hat -Interpretationen, Löschungen, Profildaten -, gehören direkt zu jeder Suchanfrage hinzu und müssen auf der Ergebnisseite direkt sichtbar sein. Nur mit zusätzlichen Informationen können Nutzer die Qualität und Angemessenheit von Suchergebnisse einschätzen. Sind die Ergebnisse von Profildaten, Interpretationen oder nachträglichem Eingriff des Betreibers beeinflusst, gehören diese Metaangaben dazu.

5. Eigener Anspruch: Um eine Suchmaschine und ihre Ergebnisse verstehen zu können, ist es notwendig zu verstehen, wie sie Relevanz bestimmt, also wie sie "gute" von "schlechteren" Treffern unterscheidet. Nun haben wir schon festgestellt, dass das Offenlegen des kompletten Algorithmus keine sinnvolle Alternative ist, da sonst Spammern Tür und Tor geöffnet wäre. Eine konzeptionelle Erläuterung des Algorithmus ist allerdings in dieser Hinsicht einerseits nicht das Todesurteil für den Dienst und andererseits eine gute Grundlage, um Suchergebnisse verstehen zu können. Googles PageRank-Algorithmus beispielsweise ist gut dokumentiert.

Die Suchmaschine der Zukunft wird personalisiert sein, sie wird mit jeder Suche mehr über den Nutzer oder die Nutzerin lernen, sie wird auf immer größere Datenquellen zugreifen und sich immer tiefer in unsere Wahrnehmung der Welt einbetten. Diese Forderungen erlauben es uns trotzdem, die Suchergebnisse, die unsere Welt mitgestalten, kritisch zu hinterfragen und gegebenenfalls eine andere Suchmaschine zu benutzen.

Jürgen Geuter lebt unter dem Namen tante im Internet und ist als Wissenschaftler an einer Universität tätig. Er entwickelt innerhalb der datenschutzkritischen Spackeria Konzepte für zukünftiges Zusammenleben und beschäftigt sich in diesem Rahmen insbesondere mit den Auswirkungen der Verdatung der Welt auf die Gesellschaft und ihre Individuen.

Diesen Artikel...
  • Aus Datenschutzgründen wird Ihre IP-Adresse nur dann gespeichert, wenn Sie angemeldeter und eingeloggter Facebook-Nutzer sind. Wenn Sie mehr zum Thema Datenschutz wissen wollen, klicken Sie auf das i.
  • Auf anderen Social Networks teilen

Forum - Diskutieren Sie über diesen Artikel
insgesamt 13 Beiträge
Alle Kommentare öffnen
    Seite 1    
1. Die Suchmaschine der Zukunft wird personalisiert sein - also unbrauchbar!
Emmi 22.05.2013
Wenn die Suchmaschine der Zukunft personalisiert sein wird, dann wird sie unbrauchbar sein. Das Wichtigste, das ich von einer SM erwarte, ist OBJEKTIVITÄT. M.a.W., egal wer, wann und wo eine Suchanfrage stellt, sollte das GLEICHE Ergebnis geliefert bekommen. Wie soll die Zusammenarbeit/Kommunikation von Menschen erfolgen, wenn jedem ein anderes "Wissen" zur Verfügung gestellt wird? Weiterhin gehen einen SM-Betreiber meine persönlichen Vorlieben/vergangenen Suchen/Lokation einen feuchten Kehricht an!
2. Schon seltsam
OneTwoThree 22.05.2013
Wenn man seine Sicherheitseinstellung sehr restriktiv einstellt, Cookies etc. ausschaltet, sind bei mir die Suchergebnisse wesentlich besser als sie dies mit den Standard-Einstellungen (sprich: personalisierte Suche) wären.
3.
mr.ious 22.05.2013
Zitat von OneTwoThreeWenn man seine Sicherheitseinstellung sehr restriktiv einstellt, Cookies etc. ausschaltet, sind bei mir die Suchergebnisse wesentlich besser als sie dies mit den Standard-Einstellungen (sprich: personalisierte Suche) wären.
Seien Sie mal so restriktiv (?) wie Sie nur sein können. Bei Wiki. erfahren Sie trotzdem was Sie schon mal angeklickt hatten. Ich stimme Ihnen aber durchaus zu. "Wer keinen Führerschein machen will, der kann trotzdem lang über die StVO sinnieren". Und besser wie die besagte StVO, kann auch kein sonstiger Algorhythmus funktionieren, die ist ja praktisch auch nur einer unter vielen.
4. Ohje
oberle- 22.05.2013
"Denn was nicht gefunden werden kann, existiert nicht." - Sagen die Menschen, deren Internet-Horizont nicht über SPON und Youtube reicht. Schon mal was vom Deep Web gehört? Seine Datenmenge erreicht locker dass 600-fache des Surface Webs, also der Inhalt, der bspw. per Google auffindbar ist.
5. Schon heute unbrauchbar
calinda.b 22.05.2013
Google mac ht schon heute soviele Annahmen, dass die Resultate unbrauchbar sind. Bloss weil soviele Pappnasen keine Ahnung haben wie man eine Suchmachine bedient werden alle möglichen Sache 'angenommen' die das Resultat versauen. Die C'T hat's schon vor langem das treffendste dazu veröffentlicht. http://www.heise.de/ct/schlagseite/2008/7/gross.jpg
Alle Kommentare öffnen
    Seite 1    
News verfolgen

HilfeLassen Sie sich mit kostenlosen Diensten auf dem Laufenden halten:

alles aus der Rubrik Netzwelt
Twitter | RSS
alles aus der Rubrik Netzpolitik
RSS
alles zum Thema Suchmaschinen
RSS

© SPIEGEL ONLINE 2013
Alle Rechte vorbehalten
Vervielfältigung nur mit Genehmigung der SPIEGELnet GmbH



  • Drucken Senden
  • Nutzungsrechte Feedback
  • Kommentieren | 13 Kommentare
Zum Autor
Jürgen Geuter lebt unter dem Namen tante im Internet und ist als Wissenschaftler an einer Universität tätig. Er entwickelt innerhalb der datenschutzkritischen Spackeria Konzepte für zukünftiges Zusammenleben und beschäftigt sich in diesem Rahmen insbesondere mit den Auswirkungen der Verdatung der Welt auf die Gesellschaft und ihre Individuen.


Anzeige
  • Christian Stöcker:
    Spielmacher

    Gespräche mit Pionieren der Gamesbranche.

    Mit Dan Houser ("Grand Theft Auto"), Ken Levine ("Bioshock"), Sid Meier ("Civilization"), Hideo Kojima ("Metal Gear Solid") u.v.a.

    SPIEGEL E-Book; 2,69 Euro.

  • Einfach und bequem: Direkt bei Amazon kaufen.