Netzwerkprobleme Speichermangel bremst das Internet aus

Weltweit haben Netznutzer am Dienstag über langsame Internetverbindungen geklagt. Eine Analyse der Probleme zeigt: Sein eigenes Wachstum und alte Hardware bremsen das Netz aus.

Cisco-Router vom Typ CRS-3: Ältere Modelle kommen an ihre Grenzen
REUTERS

Cisco-Router vom Typ CRS-3: Ältere Modelle kommen an ihre Grenzen


Viele Internetnutzer machten am 12. August die gleiche Erfahrung: Aus unerklärlichen Gründen lahmte ihre Verbindung ins Netz. Websites wurden langsamer als üblich geladen oder waren schlicht nicht erreichbar. In Deutschland trat das Phänomen vor allem zwischen 10 und 12 Uhr auf. Hier waren in erster Linie Anschlüsse der Telekom betroffen.

Die Ursache für das zwischenzeitliche Holpern war eine grundsätzliche Schwachstelle in der Speicherverwaltung einiger Backbone-Router. Diese nutzen einen speziellen Speicher, den Ternary Content-Addressable Memory (TCAM) als eine Art Adressverzeichnis.

Die Informationen in diesem Verzeichnis werden quasi als Navigationssystem für den Versand von Datenpaketen genutzt. Sie dienen dazu, den Weg festzulegen, auf dem einzelne Pakete vom Absender aus über mehrere Provider bis zum Empfänger durch die Netzwerke geleitet werden.

Bei vielen Geräten ist dieser Speicherplatz auf 512.000 Einträge begrenzt. Das sei etwa bei einer Reihe älterer Cisco-Router der Fall, berichtet BGPmon. Aufgrund des andauernden Wachstums des Internets reichte diese Speicherkapazität nun nicht mehr aus. Bei den betroffenen Routern hatte das zur Folge, dass überzählige Tabelleneinträge gelöscht wurden. Das Resultat war, dass diese Router nicht mehr über die notwendigen Informationen zur korrekten Auslieferung mancher Datenpakete verfügten.

Ein Grund für die Misere ist, dass auch zwei Jahre nach Einführung des neuen Internet-Standards IPv6 immer noch sehr viele IPv4-Netze mit dahinter liegenden Subnetzen genutzt werden, welche die Routing-Tabellen anschwellen lassen.

Bei den Cisco-Routern haben Techniker das Problem schließlich dadurch gelöst, dass sie etwa bei ihren Catalyst-6500-Routern die standardmäßig vorgegebene Speichergrenze für TCAM von 512.000 auf die tatsächlich möglichen eine Million Einträge anhoben.

Doch überall auf der Welt, so BGPmon, würde sich die Größe der globalen Routing-Tabellen auch in Normalzeiten der Grenze von 500.000 Einträgen nähern. Das sei mit Stichtag 12. August etwa in den Niederlanden, Australien, Singapur und den USA der Fall gewesen. Die Fähigkeit des Internets, bei auftretenden Problemen Datenströme an Hindernissen vorbeizulenken, sei dann erheblich eingeschränkt, wenn mehrere Backbone-Router gleichzeitig an ihre Grenzen stießen.

meu

Mehr zum Thema


Forum - Diskutieren Sie über diesen Artikel
insgesamt 12 Beiträge
Alle Kommentare öffnen
Seite 1
Berliner42 14.08.2014
1.
Und was haben Festplatteninhalte mit Routingtabellen zu tun? Nichts.
MaxMümmelmann 14.08.2014
2. Stauwarnung!
Aufgrund des großen Datenaufkommens ist es unseren Kooperationspartnern (BND, NSA, etc.) im Moment leider nicht möglich Ihre Daten in Echtzeit zu duplizieren. Bitte haben sie daher Verständnis für die verlängerten Ladezeiten. Mit freundlichen Grüßen Ihre Telekommunikationsunternehmen
dasdondel 14.08.2014
3. Zentralisierung
ist da wohl das Problem, zuviele Datenpakete müssen durch dieselben Router. Wenige Stecken mit sehr hoher Bitrate sind der falsche Ansatz. Man braucht viele Strecken mit mittlerer Bitrate, also eine stärkere Vernetzung. Für diesem Ansatz war das Internet ja auch konzipiert.
Holperik 14.08.2014
4.
Zitat von dasdondelist da wohl das Problem, zuviele Datenpakete müssen durch dieselben Router. Wenige Stecken mit sehr hoher Bitrate sind der falsche Ansatz. Man braucht viele Strecken mit mittlerer Bitrate, also eine stärkere Vernetzung. Für diesem Ansatz war das Internet ja auch konzipiert.
..und zuviel wirklich unnützer Datenmüll vagabundiert durchs Netz.
wdiwdi 14.08.2014
5. Re: Zentralisierung
Zitat von dasdondelist da wohl das Problem, zuviele Datenpakete müssen durch dieselben Router. Wenige Stecken mit sehr hoher Bitrate sind der falsche Ansatz. Man braucht viele Strecken mit mittlerer Bitrate, also eine stärkere Vernetzung. Für diesem Ansatz war das Internet ja auch konzipiert.
Noch ein Post, der am Problem vorbeigeht: Das Problem würde so noch verschärft werden - die Routing-Tabellen werden mit steigender Komplexität der Netzwerktopologie immer größer. Wenn entschieden werden muss, Datenpakete statt in eine dicke Default-Leitung in die richtige/beste von drei mittleren Leitungen zu schicken, je nach endgültiger Destination, erfordert das noch mehr Speicher im Router.
Alle Kommentare öffnen
Seite 1

© SPIEGEL ONLINE 2014
Alle Rechte vorbehalten
Vervielfältigung nur mit Genehmigung der SPIEGELnet GmbH


Die Homepage wurde aktualisiert. Jetzt aufrufen.
Hinweis nicht mehr anzeigen.