Distributed Computing Prozessoren aller Länder, vereinigt Euch!

Internet 2001: Nur wenig erinnert noch an den ursprünglich wissenschaftlichen Hintergrund des Netzes, Kommerzangebote stehen im Vordergrund. Doch zahlreiche Wissenschaftler und Freiwillige nutzen das Internet für Forschungsaufgaben, die ohne gemeinsame Anstrengung nicht mehr zu lösen wären.

Von


Die Kraft der 1000 Prozessoren: Vernetzte PCs können sich rechenintensive Aufgaben teilen
REUTERS

Die Kraft der 1000 Prozessoren: Vernetzte PCs können sich rechenintensive Aufgaben teilen

Distributed Computing, das auf mehrere Computer verteilte Rechnen ist prinzipiell nichts Neues. In zahlreichen Firmen- und Universitätsnetzwerken werden etwa nachts die einzelnen Rechner zu einem großen virtuellen Riesencomputer zusammengeschaltet, der sich um rechenintensive Aufgaben kümmern kann. Und auch im Internet teilen sich zahlreiche Communities gemeinsam die Arbeit an mathematischen, biologischen und astronomischen Problemstellungen.

So haben sich inzwischen knapp drei Millionen Menschen beim Seti@home-Projekt der Universität von Kalifornien in Berkeley auf die Suche nach extraterrestrischem Leben gemacht. In Arbeitspausen wertet ein Client-Programm dabei Informationen des Radioteleskops im puerto-ricanischen Arecibo aus und schickt die Ergebnisse an den Zentralrechner zurück. Bislang blieb die dreijährige Suche jedoch noch ohne Erfolg. Hinweise auf Außerirdische gab es noch nicht, trotz zusammengenommen knapp 650.000 Jahren Rechenzeit.

Wachsende wissenschaftliche und wirtschaftliche Bedeutung

Im Moment finden Distributed-Computing-Anwendungen oftmals noch als Hobby-Veranstaltung im Kreis experimentierfreudiger Freaks statt. Doch nicht zuletzt dank Seti@home wird das verteilte Rechnen als ernst zu nehmender wissenschaftlicher und wirtschaftlicher Faktor immer interessanter. Gleichzeitig werden die Dimensionen künftiger Projekte immer größer.

Krebsforschungsprojekt "Cure"

Krebsforschungsprojekt "Cure"

Für das Krebsforschungsprojekt "Cure", das unter anderem von der Universität Oxford, dem Nationalen Krebsforschungsinstitut der USA sowie den Firmen United Devices und Intel getragen wird, sollen bis Ende des Jahres bereits sechs Millionen Client-Rechner schuften - doppelt so viele wie bislang bei Seti@home. Bei der Suche nach Leukämie-Medikamenten sollen die Beteiligten dabei einige hundert Millionen Eiweiß-Moleküle daraufhin überprüfen, ob sie an ein bestimmtes Molekül andocken können, das bei der Entstehung der Leukämie eine wichtige Rolle spielen soll.

In Paketen zu je 100 Molekülen werden die Daten über das Internet zu den Freiwilligen geschickt, die ihrerseits ein Analyseprogramm installiert haben müssen. Es überwacht ständig die Systemressourcen wie Arbeitsspeicher, Festplattenkapazität und Prozessorleistung. In Arbeitspausen werden die Berechnungen ausgeführt, die Ergebnisse im Paket wieder zurückgeschickt.

Proteinuntersuchungen bei Folding@home

Proteinuntersuchungen bei Folding@home

Weitere Distributed-Computing-Projekte befassen sich unter anderem mit der Faltung von Proteinen (Folding@home) oder der Analyse von HI-Viren (FightAIDS@home). Interessant für Aktienfans dürfte das deutsche Projekt Moneybee sein. Hier arbeiten die freiwilligen Teilnehmer zusammen an so genannten technischen Aktienanalysen. Die Berechnungen mit Hilfe eines künstlichen neuronalen Netzes, das mittels einer großen Menge an Eingangsdaten die Kursentwicklung eines bestimmten Unternehmens oder Aktienindexes vorhersagt, war bisher nur für Banken mit eigenen Großrechnern möglich. Nun sollen nach dem Willen der Moneybee-Macher auch Privatkunden die Prognosen kostenlos nutzen können.

Das britisch-amerikanische Casino-21-Projekt will nach seinem Start komplizierte Modellrechnungen zur Vorhersage des Weltklimas an interessierte User verteilen, um mit Hilfe des Distributed Computing die Entwicklung der nächsten 50 Jahre vorherzusagen. Im Unterschied zu Seti@home erhält jeder einzelne Rechner nicht nur ein kleines Datenpaket, sondern ein eigenes vollständig zu berechnendes Modell, dessen Ergebnisse erst nach Ende der Kalkulation übermittelt werden.

Analyse von Aktienkursen bei Moneybee

Analyse von Aktienkursen bei Moneybee

Problematisch ist hier der möglicherweise mangelhafte Rücklauf, denn nicht alle versandten Datensätze werden auch gerechnet wieder zurückgeschickt. Eine Schwierigkeit, mit der viele Distributed-Computing-Anwendungen zu tun haben. Manche User haben schlicht keine Lust mehr, an dem Projekt teilzunehmen, andere haben ihr Computersystem umgestellt, weitere sind für längere Zeit im Urlaub. Wenn zum Bespiel Moneybee von einem Teilnehmer zwölf Wochen lang keine Ergebnisse zugesandt bekommt, wird automatisch eine Erinnerungsmail verschickt, später sogar der Account gelöscht.

Peer-to-Peer-Technologie ja, Gleichberechtigung nein

Für die Verteilung der Aufgaben wird bei zahlreichen neuen Distributed-Computing-Anwendungen die so genannte Peer-to-Peer-Technologie genutzt, wie sie auch bei Filesharing-Systemen wie Napster oder Gnutella zum Einsatz kommt. Doch im Gegensatz zu diesen Systemen haben die klassischen Distributed-Computing-Anwendungen bislang ein Manko: Die beteiligten Partner sind nicht gleichberechtigt. Während Interessenten zwar die Rechenleistung ihres Computers zur Verfügung stellen können, haben sie ihrerseits keine Chance, auf die Arithmetik-Power des restlichen Systems zuzugreifen.

Ein Projekt am Kernforschungszentrum Cern in Genf soll das ändern. Bis zum Jahr 2005 soll das Data-Grid, ein europäisches Hochgeschwindigkeits-Datennetz stehen. Die beteiligten Wissenschaftler sollen dabei von jedem beteiligten Rechner aus die Chance haben, auf die Rechenleistung des gemeinsamen Gesamtsystems zurückzugreifen.

Dass das Cern bei der Weiterentwicklung des verteilten Rechnens die Federführung in Europa übernommen hat, ist nicht uneigennützig. Im geplanten Jahr der Fertigstellung des Grid soll am Kernforschungszentrum der gigantische Teilchenbeschleuniger Large Hadron Collider (LHC) in Betrieb gehen. Die Analyse der anfallenden Daten würde den Prognosen der Forscher zufolge tagtäglich 100.000 PCs beschäftigen. Eine Aufteilung der Kapazität auf mehrere größere Rechner ist also unerlässlich.



© SPIEGEL ONLINE 2001
Alle Rechte vorbehalten
Vervielfältigung nur mit Genehmigung der SPIEGELnet GmbH


TOP
Die Homepage wurde aktualisiert. Jetzt aufrufen.
Hinweis nicht mehr anzeigen.