Web-Visionen Suchen nach Relevanz - Scheitern an der Wahrheit

Für den Suchmaschinenexperten Nova Spivack ist die Enttäuschung über Wolfram Alpha Resultat überzogener Erwartungen. Die Welt wartet auf einen "Google-Killer", weil wir eine bessere Web-Suche brauchen. Im Gespräch mit SPIEGEL ONLINE erklärt Spivack, wie die wirklich aussehen müsste.


SPIEGEL ONLINE: Herr Spivack, Sie konnten Wolfram Alpha im März als Erster testen und würdigten die Technik seinerzeit mit einem langen, wohlwollenden Blog-Eintrag. Jetzt ist die vermeintliche Wundersuchmaschine öffentlich zugänglich, und Experten zeigen sich reihenweise enttäuscht - zu Recht?

Nova Spivack: Nein, dieses Urteil kann ich nicht teilen. Es beruht auf falschen Erwartungen. Auf Täuschungen darüber, was Wolfram Alpha ist - und anschließender Ent-Täuschung.

Nova Spivack: Der Autor und Suchmaschinenexperte entdeckt in Wolfram Alpha trotz öffentlicher Enttäuschung eine "wunderschöne gotische Kathedrale"
Radar Networks

Nova Spivack: Der Autor und Suchmaschinenexperte entdeckt in Wolfram Alpha trotz öffentlicher Enttäuschung eine "wunderschöne gotische Kathedrale"

SPIEGEL ONLINE: Was ist Wolfram Alpha denn nicht?

Spivack: Ein Über-Programm, das Google in puncto Umfang ebenbürtig ist und in puncto Präzision um ein Vielfaches übertrifft. Genau das sind aber die Eigenschaften, die die Suchmaschine der nächsten Generation haben muss - und genau für diese Erwartungen war Wolfram Alpha vor dem Realitätstest lange Projektionsfläche...

SPIEGEL ONLINE: ...woran Sie nicht ganz unschuldig waren. Sie haben kräftig PR für Stephen Wolfram gemacht. Dabei arbeiten Sie mit ihrem Dienst Twine im weitesten Sinne selbst an einer Art Suchtechnik. Warum unterstützen Sie einen potentiellen Konkurrenten?

Spivack: Weil Wolfram Alpha die Diskussion darüber, wie Maschinen denken und wo die Grenzen ihres Denkens liegen, bereichert. Übrigens habe ich von Anfang an gegen das Klischee angeredet, dass Wolfram Alpha der lange erwartete Google-Killer ist.

SPIEGEL ONLINE: Also, was ist Wolfram Alpha?

Spivack: Eine wunderschöne gotische Kathedrale - so wie Notre-Dame.

SPIEGEL ONLINE: Wie bitte?

Spivack: Wolfram Alpha ist ein Kunstwerk, dem ein recht gotisch anmutendes Konzept unterliegt. Das Programm sucht Informationen in einer gigantischen, von Menschenhand gepflegten und weitgehend geschlossenen Datenbank. Der Google-Killer dagegen wird auf das Internet zugreifen. Und dieses Netz wird semantisch sein, nicht länger literarisch...

SPIEGEL ONLINE: ...das heißt, die Suchmaschine erkennt, welche Themen- und Sinnzusammenhänge auf Web-Seiten gespeichert sind, anstatt sie nur nach Schlagworten zu durchsuchen?

Spivack: Der wahre Google-Killer wird Suchanfragen beantworten können wie: "Zeige mir alle schwarzen Digitalkameras mit mehr als 5 Megapixeln, die von einem japanischen Hersteller gebaut worden sind."

SPIEGEL ONLINE: Google lässt uns bei so vielen Stichwörtern auf einem riesigen Informationsschrotthaufen sitzen. Wie wird die Suchmaschine der Zukunft besser verstehen, was ich von ihr will?

Spivack: Sie wird jedes Stichwort automatisch einer Kategorie zuordnen, wird also erkennen, dass mit dem Begriff "schwarz" eine Farbe gemeint ist, mit "Digitalkamera" ein Objekt und mit "mehr als 5 Megapixel" eine Leistungsangabe. Dann wird sie Web-Seiten danach durchsuchen, ob sie diese Schlagworte in den gesuchten Kategorien aufweisen.

SPIEGEL ONLINE: Zurzeit kann man nur die Web-Seiten einzelner Hersteller oder Elektromärkte so präzise nach Produkten durchsuchen. Doch jede Datenbank sortiert ihre Inhalte anders, und es ist kaum anzunehmen, dass sich alle Hersteller japanischer Kameras zu einem Suchmaschinenoptimierungskongress treffen, auf dem sie Standards definieren, wie sie ihre Verkaufskataloge im Web kategorisieren.

Spivack: Das ist auch gar nicht nötig. Die Kategorisierung von Informationen wird stattfinden - mit oder ohne die Hilfe der Web-Seiten-Betreiber. Bereits jetzt werden in Netz-Gemeinden wie Flickr erfolgreich Inhalte verschlagwortet. Diese sogenannten Tags gilt es weiterzuentwickeln. Es gilt, Nutzern zu ermöglichen, Inhalte in verschiedenen Kategorien mit Metadaten zu versehen...

SPIEGEL ONLINE: ...mit Informationen darüber, welche Informationen die Inhalte enthalten.

Spivack: Ja, über diese Metadaten könnten Inhalte wesentlich präziser durchsucht werden - der Suchende bekäme Ergebnisse angezeigt, die jeweils in seinem aktuellen persönlichen Kontext hoch relevant sind.

SPIEGEL ONLINE: Wäre das dann der viel beschworene Google-Killer?

Spivack: Ja. Eine Maschine, die fähig ist, nach dem Kriterium der individuellen Relevanz zu suchen, wäre Google um Längen voraus. Der IT-Riese priorisiert seine Suchergebnisse nur nach Popularität, sprich nach ihrer Relevanz für die breite Masse. Beim Google-Killer gäbe es bei der Suche keine Unterscheidung mehr zwischen Maschinenintelligenz und Menschenintelligenz. Jeder Inhalt ließe sich mit beliebig viel Kontext anreichern. Jeder Informationssplitter trüge die Grundstruktur der ihn umgebenden Realität in sich. Die Folge wäre wesentlich präziseres Suchen...

SPIEGEL ONLINE: ...oder ein Suchen, das Gefahr liefe, nicht mehr objektiv zu sein, weil eine Gruppe, die bestimmte Interessen verfolgt, selbst den Kontext einer Information definiert?

Spivack: Projekte wie die Online-Enzyklopädie Wikipedia zeigen, dass in den meisten Fällen durchaus zuverlässige Informationen entstehen, wenn viele Menschen sich gegenseitig kontrollieren und korrigieren. Das größere Problem dürfte sein, dass viele Informationen zu einem weit geringeren Teil objektiv sind, als wir gemeinhin annehmen.

SPIEGEL ONLINE: Ein Beispiel, bitte.

Spivack: Das Groß der Netz-Gemeinde dürfte Darwins Evolutionstheorie als "Wissenschaft" klassifizieren. Nicht so die Kreationisten - bei denen läuft die Abstammung der Arten unter dem Oberbegriff "Gotteslästerung". Eine objektive Wahrheit dazu gibt es nicht - nur Auslegungen von Fakten.

SPIEGEL ONLINE: Die semantische Suchmaschine scheitert also an der Definition von Wahrheit?

Spivack: Ja, ebenso wie der Mensch.

SPIEGEL ONLINE: Eine Maschine, die kontextrelevante Suchergebnisse zutage fördert, könnte sehr zielgenau Anzeigen schalten - wie würde Werbung im Web 3.0 aussehen?

Spivack: Sie könnte so stark personalisiert sein, dass sie im Idealfall nicht mehr als Werbung wahrgenommen wird. Wenn ein Arzt etwa eine Web-Seite über Krebs besucht, bekäme er vielleicht Werkzeuge für Chemotherapie angezeigt. Ein Patient hingegen bekäme Informationen über Therapiemöglichkeiten in seiner Umgebung. Beides wäre im Kontext der Suchanfrage hilfreich. Der Unterschied zwischen Werbung und Inhalt ist Relevanz.

SPIEGEL ONLINE: Bleibt nur ein Problem - die Idee, Internet-Suchen mittels Metadaten zu präzisieren, existiert seit Jahren. Ein Google-Killer ist trotzdem noch nicht in Sicht. Warum eigentlich nicht?

Spivack: Weil Meta-Daten derzeit in vielen unterschiedlichen Formaten auftauchen. Und es schwierig ist, eine Technik zu entwickeln, die sie automatisch auslesen, kategorisieren und mit Suchanfragen verknüpfen kann.

Das Interview führte Stefan Schultz

Mehr zum Thema


Forum - Diskussion über diesen Artikel
insgesamt 2 Beiträge
Alle Kommentare öffnen
Seite 1
mark pohland 19.05.2009
1. warum brauchen wir einen google-Killer?
"Killer", das klingt so, als ob google getötet werden müßte. Warum? Warum muß es etwas besseres geben als das jetzige Zusammenspiel aus google, wikipedia, facebook usw.? "google-Killer", das klingt so, als ob eine Person bzw. ein Unternehmen aus bloßen finanziellen Interessen an googles Erfolg anknüpfen will - den Usern eine verbesserte Technologie anbieten zu wollen gerät dabei in den Hintergrund. Das zeigt sich vor allem an dem Beispiel, wie Werbung im sog. "Web 3.0" aussehen könnte: natürlich klingt das Beispiel interessant und völlig angemessen - aber mal im Ernst: der Großteil der "personalisierten" Werbung wird sich ja wohl um Arznei gegen Krebs, sondern um Elektronikartikel und Handy-Verträge handeln, und davon gibt es weiß Gott schon genug. Dann plädiere ich ganz weltverbesserlich doch dafür, lieber einen Weg zu finden, die Ungerechtigkeit dieser Welt zu bekämpfen. Wie das geschehen soll, weiß ich nicht genau, aber die Antwort darauf liegt evtl. in den Händen von Leuten wie Spivack und Wolfram. In der Hinsicht ist der Titel des Artikels doppeldeutig: "Suchen nach Relevanz - Scheitern an der Wahrheit". Es gibt genug irrelevante "Web 2.0"-Projekte. Macht mal was relevantes!
Newspeak, 28.05.2009
2.
Das semantische Internet scheitert doch bereits bei einem einzelnen Computer. Wenn es eine Suchmaschine gäbe, die den Kontext einer Suchanfrage versteht, dann wäre es ebensogut möglich auf diese Weise mit dem eigenen Rechner zu kommunizieren. Wenn man an die "Was möchten Sie tun..." Versuche von Microsoft denkt, gibt es zwar erste Ansätze, aber im Grunde ist das alles noch mehr als rudimentär, weshalb Microsoft auch mehr Energie darin investiert hat, den persönlichen Suchassistenten durch eine schicke Animation zu präsentieren. Typischer Fall, in dem durch die schöne Form vom mangelhaften Inhalt abgelenkt wird. Wahrscheinlich muß man wirklich erst verstehen, wie der Mensch denkt, um eine Suchmaschine zu erfinden, die menschlichen Bedürfnissen angepasst ist. Wobei ich die Mischung aus google, google scholar, wolfram alpha und fachspezifischen Suchdiensten bzw. Datenbanken (wie den chemical abstracts service) schon extrem gut finde. Ein großer Fortschritt wäre es z.B. wenn google auf diese Daten zugreifen könnte, aber da stehen dem Fortschritt der Menschheit mal wieder beiderseitige finanzielle Interessen gegenüber.
Alle Kommentare öffnen
Seite 1
Diskussion geschlossen - lesen Sie die Beiträge! zum Forum...

© SPIEGEL ONLINE 2009
Alle Rechte vorbehalten
Vervielfältigung nur mit Genehmigung der SPIEGELnet GmbH


Die Homepage wurde aktualisiert. Jetzt aufrufen.
Hinweis nicht mehr anzeigen.