Ende einer Legende Das empfindliche Netz

Selbstreparierend, unzerstörbar, gar atombombensicher sollte es sein, das Internet: So hat man das seit Jahren unzählige Male gelesen. Eine aktuelle Studie behauptet dagegen, es sei vor allem reformbedürftig. Das Netz der Netze sei ein fragiles Gebilde und einfach zu zerstören.

Am Anfang, so steht es in den zahlreichen Büchern, Aufsätzen und Artikeln zur Geschichte des Internet, waren Arpa und die Akademiker, und die Online-Welt war wüst und leer. Ende der sechziger Jahre dann sei es den amerikanischen Militärs klar geworden, dass man ein stabiles, sozusagen bombensicheres digitales Netzwerk nur würde aufbauen können, wenn man dieses öffne: Aus dem Arpanet wurde das Internet, als akademische und militärische Netze zu einem ersten Mini-Net verschmolzen.

Dann ging alles relativ schnell. Auf der Basis eines plattformübergreifenden, minimalistischen Protokolls miteinander kommunizierend begann das Netzwerk zu wachsen, hochgradig dezentralisiert, und dass die essenziellen Routing-Informationen viele Male anscheinend obsolet im Netzwerk gedoppelt vorlagen, war Programm: Dieses wirre Netz, so hatten das die finanzierenden Militärs erhofft, sollte unverwundbar, weil selbstreparierend sein. Im Falle eines Ausfalles sollten Schäden umschifft werden, Daten sich ihren Weg trotz alledem suchen und das Netz als Ganzes zu einem autonomen Geflecht heranwachsen, dem kein bitterböser Kommunist noch etwas anhaben konnte.

So entstand die Legende vom unverwundbaren Netz der Netze.

Die, behauptet nun eine Forschergruppe von der Ohio State University, ist Kokolores, Käse, Quatsch - zumindest aber habe sie sich selbst überlebt. Denn das Netz, von dem die Legende berichtet, existiert nicht mehr. Seit dem Beginn des WWW-Booms habe sich die Struktur des Internet massiv verändert. Das exponentiell schnelle Wachstum des Webs, befeuert durch seine rapide Kommerzialisierung, habe das einst möglicherweise hochgradig widerstandsfähige Netzwerk verletzlich gemacht - und es werde immer empfindlicher.

Schon heute, meinen die Forscher, sei es ein Leichtes, ganze Regionen, Landstriche oder Länder vom Internet abzukoppeln, ja vielleicht sogar ein "Aufribbeln" des gesamten Netzwerkes zu verursachen.

Was es dafür braucht? Eine Bombe

Denn im Gegensatz zum frühen Netzwerk sei das heutige Internet vor allem deshalb empfindlicher, weil es - aus kommerziellen Interessen und Notwendigkeiten - rigider administriert und - aus politischen Motiven - reguliert wird: Der Datenverkehr werde über große, leistungsfähige Knoten geleitet, an denen fast nichts mehr vorbeiführe. Wer den Knoten zerstöre, zerhacke damit auch die Verbindungen zu allen virtuellen und realen Orten, die durch ihn verbunden werden. Das Netzwerk zerfiele.

Tony Grubesic, Geografie-Professor an der Universität Cincinnati und an der Studie beteiligt, vergleicht das mit den Auswirkungen eines massiven Störfalles auf einem Großflughafen: Fielen da Flüge aus und bildeten sich Warteschleifen, so setzten sich die Negativeffekte daraus im Flugverkehr eines ganzen Landes und darüber hinaus fort. Mit den großen, kommerziellen Netzknoten seien Angriffspunkte entstanden, die durch Terror, Krieg oder Naturkatastrophen vernichtet werden könnten und den Bestand des funktionierenden Netzwerkes selbst in Frage stellten.

Besonders betroffen, so zeigte die zum Teil auf simulierten Attacken auf solche "Hubs" beruhende Studie, wären nicht primär die städtischen Ballungsräume, sonders das sprichwörtliche "platte Land" sowie kleinere und Mittelstädte: Die hingen am Tropf der großen Netzknoten, während in dichten, urbanen Räumen das Web sogar bei einer generellen Destabilisierung regional weiterfunktionieren könnte.

Die Forschergruppe leitet aus ihren Befunden, die in der Februarausgabe der Fachzeitschrift "Telematics and Informatics" veröffentlicht werden sollen, die Notwendigkeit ab, das Internet wieder stärker zu dezentralisieren. Ihr Wort dürfte Gewicht haben, denn die Studie musste sich nicht allein auf theoretisch deduziertes Datenmaterial stützen: Bei der Zerstörung des World Trade Centers am 11. September 2001 wurden drei Bezirke im Umland von New York vollständig vom Internet getrennt. Es dauerte Tage, bis Daten- und Kommunikationsleitungen wieder stabil liefen.

Dezentralisierung ist nötig, aber wahrscheinlich nicht gewollt

Zurückzunehmen sind die negativen Entwicklungen des Webs in den letzten Jahren aber wohl nicht so leicht. Formal hat sich an der Struktur des Internet relativ wenig geändert, faktisch aber schon. Der Kommerzialisierungs- und Konzentrationsprozess innerhalb der Web-Welt habe dazu geführt, dass das Gros des weltweiten Datenverkehrs über die Knoten von rund 40 Großdienstleistern liefe.

Die hätten - ganz in der Tradition des Internet - zwar zum größten Teil Peering-Abkommen miteinander geschlossen, im Notfall den Datenverkehr auch der Konkurrenz mit abzuwickeln. Das aber dürfte im Ernstfall wenig nützen, denn die Großunternehmen bestimmter Branchen konzentrierten sich in wenigen Städten. Also müsste es zur Dezentralisierung gehören, Netzwerk-Großunternehmen räumlich voneinander zu trennen und aus den Großstädten heraus zu führen.

Gern werden auch die anderen Adressaten der Studie, die Regierungen in aller Welt, die Ratschläge kaum befolgen. Außer der fortschreitenden Kommerzialisierung des Webs gibt es einen weiteren Faktor, der zu der wieder stärkeren Zentralisierung der Netzinfrastrukturen geführt hatte: Das zunehmende Interesse von Regierungen, die Datenströme des Internet zu kontrollieren, zu observieren und zu zensieren.

Frank Patalong

Die abgebildeten Karten sind Internet-Visualisierungen des "Mapnet"-Tools der Cooperative Association for Internet Data Analysis Caida.org, einer unter anderem von der Arpa-Nachfolgeorganisation Darpa gesponsorten Public-Private-Partnership.

Die Wiedergabe wurde unterbrochen.