Die Homepage wurde aktualisiert. Jetzt aufrufen.
Hinweis nicht mehr anzeigen.

Bertelsmann-Studie: Kritik an der Vergoogelung des Webs

Ist Google dabei, die Suche im Web zu monopolisieren? Die Gefahr bestehe, meint Marcel Machill von der Bertelsmann-Stiftung. Eine Diskussion über Möglichkeiten der Konzentrationsbegrenzung sei überfällig.

Google: Auf dem Weg zum Monopol?

Google: Auf dem Weg zum Monopol?

Wenn Akademiker anfangen, das Gegebene zu analysieren und daraus Schlüsse zu ziehen, schüttelt Otto Normalverbraucher mitunter nur den Kopf. Eine aktuelle Studie der Bertelsmann-Stiftung weist nach, was jeder Web-User seit langem weiß: Google ist die marktbeherrschende Suchmaschine.

Otto Normaluser weiß auch, woran das liegt: Es sucht und findet sich halt sehr gut mit Google. Alte starke Konkurrenten wie Altavista gerieten da ins Hintertreffen, neue, viel versprechende Aufsteiger wie Teoma oder AlltheWeb hingegen fassten nie so richtig Fuß. Aus der Perspektive des Nutzers ist das oft nicht wirklich wichtig, denn was will der mehr als die zwei Standard-Suchansätze Google oder - immer seltener - irgendeinen thematisch geordneten Katalog?

Es ist, wie es ist, und Google ist deshalb mächtig, weil er die Konkurrenz derzeit eben schlägt: Genauso gut könnte man förmlich Protest gegen die Existenz von Kumuluswolken einlegen.

Aus der Perspektive des Medienwissenschaftlers sieht das anders aus. Marcel Machill, mit der Konzeption und Durchführung der Bertelsmann-Studie "Wegweiser im Netz. Qualität und Nutzung von Suchmaschinen" betraut, wandte sich bei der Vorstellung der ersten Ergebnisse förmlich gegen die Dominanz von Google.

Google werde von 69 Prozent aller Nutzer bevorzugt verwendet, erklärte Machill. Hinzu kämen Kooperationen mit zahlreichen anderen Anbietern wie beispielsweise Yahoo - dort kommt noch die Google-Volltextsuche zum Zuge, wenn der Yahoo!-Katalog keinen Eintrag findet: In Kürze wird Yahoo! an dieser Stelle wohl einen eigenen Suchdienst implementieren, schließlich verfügt das Unternehmen seit geraumer Zeit über die Suchtechnologien von Inktomi und - seit dieser Woche - durch den Einkauf von Overture auch über den Engine des alten Marktführers Altavista.

Immerhin 39 Prozent der User nutzen den Ergebnissen der Studie zufolge eine zweite Suchmaschine. Aber fast niemand greift auf drei oder mehr Dienste zurück. "Hier tauchen bekannte medienpolitische Fragestellungen wie Konzentrationsbegrenzung und publizistische Macht in neuem Gewand auf", erklärte Machill. "Für Internet-Suchmaschinen benötigen wir jedoch neue Regulierungsansätze."

Ist es nicht gut so, wie es ist?

Das wiederum ist der Punkt, an dem beim User das große Kopfschütteln beginnt. Regulierungen? Soll man Google verpflichten, schlechter zu suchen? Soll man Nutzer zwangsverpflichten, auf schlechtere Suchmaschinen umzusteigen? Wozu sollte man überhaupt auf mehrere Suchdienste zugreifen, wie anno dunnemals, in der digitalen Steinzeit?

Es gibt nach wie vor gute Gründe dafür. Tatsächlich findet Google ja auf eine ganz eigene Art und Weise: Ergebnislisten von Suchmaschinen unterscheiden sich zum Teil erheblich. Google ist im Verlauf der letzten Jahre mehrere Male in Verruf geraten, weil der Suchmaschinen-Betreiber angeblich zensierend oder auch bestimmte Seiten bevorzugend agierte.

Bekannt ist, dass Humor im Google-Team eine gern gepflegte Tugend ist: So geraten mitunter Ergebnislisten zum pointierten politischen Kommentar. Das aber dokumentiert das Potenzial des Suchdienstes, inhaltlich darauf Einfluss nehmen zu können, was im Internet überhaupt noch wahrgenommen wird und was nicht.

Nachzuweisen ist all das schwer und wird von Google in der Regel auch vehement verneint. Zuletzt bestritt die Google-Führung, auf juristisch unterfüttertes Drängen der Scientology-Kirche Webseiten von Kritikern aus den Topnennungen "weggefunden" zu haben.

Doch zumindest in einer Hinsicht machen Suchdienste heute gar keinen Hehl mehr daraus, hier und da Ergebnisse händisch umzuordnen: Dienste wie Overture, aber auch Google selbst offerieren prominente Platzierungen gegen Zahlung - wobei Google diese allerdings deutlich als bezahlte Links ausweist.

Google-Gründer Larry Page und Sergey Brin: Überlebende und Gewinner der Dotcom-Krise

Google-Gründer Larry Page und Sergey Brin: Überlebende und Gewinner der Dotcom-Krise

Rückkopplungen: Der Riese verändert das Web

Die Studie kritisiert aber auch eine wachsende Tendenz auf Seiten der Website-Betreiber, die Ergebnisse von Suchabfragen zu beeinflussen. 57 Prozent der deutschen Suchmaschinen-Betreiber haben demnach im vergangenen Jahr eine starke Zunahme von manipulierten Angaben registriert, mit denen Web-Anbieter einen Spitzenplatz in den Ergebnislisten erzielen wollen.

Das ist zwar eine uralte Kamelle und Gang und Gäbe seit den allerersten Webseiten und Suchdiensten, doch hat es heute eine neue Qualität: Die strikte Orientierung an den Suchalgorithmen weniger Suchdienste beginnt, die Struktur des Webs selbst zu beeinflussen. Wieder das Beispiel Google: Weil die Searchengine die "Wichtigkeit" einer Seite unter anderem daran bemisst, von wie vielen Webseiten aus es Links hin zu der einzuordnenden Seite gibt, sprießen im Web die Potemkinschen Dörfer - Nullseiten, deren einzige Funktion es ist, auf eine bestimmte Seite zu verweisen.

Aufgrund solcher und ähnlicher Manipulationen, sagt die Bertelsmann-Studie, könnten Kinder und Jugendliche auch bei der Eingabe von unverfänglichen Suchbegriffen mit jugendgefährdenden Inhalten in den Ergebnislisten der Suchmaschinen konfrontiert werden.

Das ist die Internet-typische Panikmache. Wer ehrlich ist, weist darauf hin, dass diese Gefahr Mitte der neunziger Jahre erheblich größer war. Doch zumindest für schlecht funktionierende, schlecht gepflegte Searchengines mag das wohl auch noch heute gelten. Das von Projektleiter Machill zitierte Negativ-Beispiel zumindest ist keines: Er gibt an, bei der Suche nach "Taschengeld" verirrten sich Kinder auf erotische Seiten. Eine wohl gewollte Übertreibung: Alle Topnennungen bei Google verweisen jedenfalls auf pädagogische Beratungsseiten zum Thema - besser geht das kaum. Nur zwei Links in den Top 30 verweisen auf zweifelhafte Seiten - doch die sind schon anhand ihrer "Lockworte" in der Ergebnisliste von Google zu erkennen.

Intelligente Suche födert "blöde" Inhalte

Aus all dem lassen sich durchaus Schlüsse ziehen, die nach Konsequenzen verlangen. Konkurrenz tut Not, und Gegengewichte gegen Google sind per definitionem eine gute Geschichte, gerade weil Google heute im direkten Vergleich so gut dasteht. Konkurrenz belebt das Geschäft und mindert die Gefahr von Manipulationen. Hier jedoch über "Regulierungen" nachzudenken, erscheint völlig wirklichkeitsfremd. Die Absicht des Bertelsmann-Projektes, User für solche Fragen zu sensibilisieren und sie vielleicht auch alternativen Suchmöglichkeiten zuzuführen, ist zwar löblich, aber ebenfalls alles andere als realistisch: Der Nutzer sucht nun mal dort, wo er am meisten findet. Denkbar wäre jedoch die bewusste Stützung, Promotion oder gar Förderung potenter Alternativen.

Zahlreiche kleinere Projekte sind da in Arbeit, und auch Google selbst kam ja erst vor wenigen Jahren quasi aus dem Nichts. Der bis dahin völlig unangefochtende Marktführer

Altavista ließ sich vom kecken Google binnen kürzester Zeit fast in die Bedeutungslosigkeit abdrängen.

So etwas wird ähnlich schnell nicht mehr passieren. Der Markt zumindest der alltäglichen Suche im Netz scheint aufgeteilt: Mit Yahoo! und Google stehen sich nur noch zwei ähnlich mächtige Blocks gegenüber.

Für spezialisiertere Dienste hingegen gibt es nicht nur Raum, sondern es gibt für sie auch dringenden Bedarf: Weil sich alle großen Suchmaschinen an einer irgendwie definierten "Popularität" des Suchergebnisses orientieren, sind ihre Ergebnislisten in akuter Gefahr der Trivialisierung. Sich nur auf Google und Co zu verlassen, hieße, es zuzulassen, dass "schwere" und gehaltvolle Quellen zunehmend verschüttet und unsichtbar werden.

Überspitzt gesagt bedeutet die Vergoogelung des Internets eine schleichende Verblödung, zumindest aber vergrößert sie die Abhängigkeit von qualitativ hochwertigen kommerziellen Produktionen: Die Inhalte eines Bildungsservers haben wohl nur selten die Chance, es auf die vordersten Plätze zu machen.

Immer mehr akademische, aber auch qualitativ hochwertige private Inhalte verschwinden tatsächlich in den dunklen Tiefen des "unsichtbaren Webs", des durch Suchmaschinen nicht mehr erfassten Internets. So bedauerlich das ist, ist es doch nur die logische Konsequenz aus der Popularisierung des einstmals neuen Mediums.

Die Studie "Wegweiser im Netz. Qualität und Nutzung von Suchmaschinen" erscheint im Oktober. Für die Untersuchung wurden Bedienerfreundlichkeit und inhaltliche Qualität der in Deutschland meist genutzten Suchmaschinen analysiert. Die Studie ist Teil des Projekts "Transparenz im Netz", mit dem die Bertelsmann-Stiftung Internet-Nutzer für die Möglichkeiten und Grenzen von Suchmaschinen sensibilisieren und Hilfestellung bei der Informationssuche im Internet geben will. Darüber hinaus wird ein Verhaltenskodex für die Suchmaschinen-Betreiber angestrebt.

Frank Patalong

Diesen Artikel...

© SPIEGEL ONLINE 2003
Alle Rechte vorbehalten
Vervielfältigung nur mit Genehmigung der SPIEGELnet GmbH




Anzeige
  • Christian Stöcker:
    Spielmacher

    Gespräche mit Pionieren der Gamesbranche.

    Mit Dan Houser ("Grand Theft Auto"), Ken Levine ("Bioshock"), Sid Meier ("Civilization"), Hideo Kojima ("Metal Gear Solid") u.v.a.

    SPIEGEL E-Book; 2,69 Euro.

  • Bei Amazon kaufen.
Der kompakte Nachrichtenüberblick am Morgen: aktuell und meinungsstark. Jeden Morgen (werktags) um 6 Uhr. Bestellen Sie direkt hier: