Blackberry-Ausfall Die Cloud-Katastrophe

Von überall jederzeit auf E-Mails und Dateien zugreifen: Diese Bequemlichkeit geht auch mit Risiken einher - das mussten Blackberry-Nutzer gerade angesichts von hartnäckigen Ausfällen erfahren. Hakt es in den Rechenzentrum von Cloud-Anbietern, können die Kunden nur warten, warten, warten.
Blackberry-Nutzer: Viele Besitzer eines RIM-Smartphones sind seit Tagen offline

Blackberry-Nutzer: Viele Besitzer eines RIM-Smartphones sind seit Tagen offline

Foto: ? Dave Kaup / Reuters/ REUTERS

Hamburg - "Man kommt sich etwas hilflos vor", schreibt ein genervter Blackberry-Nutzer in einem der vielen Foren, in denen die Besitzer der Smartphones sich gegenseitig ihr Leid klagen: Tagelang kamen E-Mails allenfalls mit Zeitverzögerung an, der Messenger-Dienst funktionierte nicht, selbst Internet-Surfen war oft nicht möglich. Wie viele der rund 70 Millionen weltweit eingesetzten Blackberrys von dem Ausfall betroffen waren, ist nicht klar.

Das eigentliche Problem - ein defekter Switch - soll mittlerweile behoben sein, teilte der Backberry-Hersteller Research In Motion (RIM) am Donnerstag mit. Der Abbau des Nachrichtenstaus dürfte aber noch einige Zeit in Anspruch nehmen, und auch am Mittag klagten Nutzer noch über Ärger mit den Blackberry-Diensten.

Damit die wegen ihrer sicheren Verschlüsselung oft geschäftlich eingesetzten Smartphones richtig funktionieren, müssen sie ständig Kontakt zum Rechenzentrum des Herstellers aufnehmen. Kommt es in dieser Zentrale zu einer Fehlfunktion, kann das verheerende Folgen für Blackberry-Nutzer haben - so wie in diesem Fall. Für die Firma ist es eine Blamage. Unternehmen, die ihren Mitarbeitern Blackberrys zur Verfügung stellen, können dann nur hoffen, dass der Fehler schnell behoben wird.

Praktische Dienste in der Wolke

Die Hilflosigkeit ist der Preis für das Konzept zentralisierter Dienste. Die Idee ist eigentlich uralt: Viele kleine, für sich nicht besonders leistungsfähige Geräte hängen an einem Host, der ihnen all die wunderbaren Anwendungen auf die Bildschirme zaubert. Sun hat diese Architektur Mitte der neunziger Jahre noch als die Zukunft der Computerarbeit gefeiert - damals hieß das uralte Konzept auf einmal "Thin Client".

Eine Zeitlang waren die Rechner so schnell und Internetverbindungen noch so langsam, dass das Konzept der übermächtigen Host-Computer mit vielen angehängten Clients etwas in Vergessenheit geriet. Nun ist es wieder in Mode, Google bietet sogar ein Betriebssystem namens ChromeOS an, das Daten ausschließlich in der Datenwolke speichert. Wer ChromeOS nutzt, lagert Datenverarbeitung nahezu komplett auf Google-Server aus.

Die Clients von heute sind nicht dumm. Ein Blackberry-Handy funktioniert grundsätzlich auch, wenn Blackberrys Server Probleme haben - nur stehen den Nutzern dann im schlimmsten Fall die wichtigsten Anwendungen nicht mehr zu Verfügung.

So ähnlich ist das bei all den praktischen Dienste, die unter dem Schlagwort "Cloud Computing" groß in Mode sind. Firmen sollen nicht länger große Softwarepakete einkaufen und eigene Server betreiben, sondern sich diese Dienste je nach Bedarf bei einem großen Anbieter anmieten, der Zugriff erfolgt über das Internet. In vielen Fällen müssen die Nutzer nicht einmal mehr spezielle Programme installieren - sie können die Dienste über jeden Web-Browser abrufen.

Funktioniert alles, wie geplant, können beispielsweise kleine Start-ups sich ein Einsteigerpaket kaufen und hohe IT-Investitionen sparen. Nimmt ihr Dienst dann Fahrt auf und lockt viele Nutzer an, kann kurzfristig neue Rechenkapazität hinzugekauft werden - früher mussten neue Server angeschafft und angeschlossen werden, was meist mehrere Tage, wenn nicht gar Wochen in Anspruch nahm. Auch Privatanwender lagern Daten in der Cloud: Mit E-Mail-Diensten wie Yahoo! Mail oder Googlemail, mit Online-Festplatten wie HiDrive oder Dropbox, mit Apples neuer Zentralspeicher iCloud und mit dem sozialen Netzwerk Facebook.

Web-Zentralismus und Fehlertoleranz

Wenn aber ein Blitzschlag das Rechenzentrum eines großen Cloud-Anbieters lahmlegt, sind schnell etliche Unternehmen betroffen - und damit viele Mitarbeiter, Kunden und Zulieferer. So geschehen im August, als ein Blitzschlag den Transformator eines Amazon-Rechenzentrums in Irland außer Dienst setzte. Als im April Amazons Webhosting-Dienst EC2 (Elastic Compute Cloud) aussetzte, wurde klar, wie viele Web-Dienste von Amazons Datenwolke abhängig sind: Reddit, Foursquare, Quora und Hootsuite waren auf einmal nicht mehr zu erreichen.

Eigentlich sind solche Rechenzentren für solche Fälle ausgelegt, Backups bewahren die Kunden vor dem Datenverlust. Außerdem betreiben große Cloud-Anbieter mehrere Rechenzentren in verschiedenen Ländern, so dass Ausfällen vorgebeugt wird. Dahinter stecken komplexe Systeme, Facebook beispielsweise verteilt die Datenmassen seiner rund 700 Millionen Nutzer - das Netzwerk betreibt wohl den größten Bilderspeicher des Planeten - über ein Filesharing-Protokoll in die verschiedenen Rechenzentren.

Das Cloud-Dogma

Auch Google speichert große Datenmengen in diversen Rechenzentren - mehrfach abgesichert, von vorneherein darauf ausgelegt, dass Hardware kaputt gehen kann. Unterläuft den Entwicklern allerdings ein Fehler, schleicht sich ein Bug in den Systemcode ein, kann auch dieses System zusammenklappen. Immer wieder trifft es Nutzer von Googlemail für ein paar Stunden. Anfang des vergangenen Jahres erwischte es YouTube: Die Videoplattform war zweitweise nicht erreichbar.

Der um sich greifende Zentralismus im Web führt dazu, dass die Auswirkungen eines Ausfalls größer werden - und schnell Millionen von Nutzern betreffen. Entwickler, die ihre Anwendungen auf den Servern eines Cloud-Anbieters laufen lassen und für diesen optimieren, sind bisweilen auch von plötzlichen Preissteigerungen der Dienste überrascht. Wird das Abrechnungsverfahren umgestellt, kostet dieselbe Nutzung auf einmal doppelt so viel wie zuvor und so einfach können Entwickler dann nicht wechseln, wenn sie ihre Anwendungen für den einen Anbieter optimiert haben.

Vernetzte Dienste müssen nicht total zentralisiert sein

Den Zentralisierungstrend sehen Entwickler wie Richard Stallman kritisch. Der Aktivist für freie Software schrieb in einem Gastbeitrag für SPIEGEL ONLINE: "Derzeit läuft eine systematische Kampagne, die Nutzer dazu bringen soll, ihre Daten Unternehmen anzuvertrauen, denen sie nicht vertrauen sollten. Das Schlagwort lautet 'Cloud Computing' - ein Begriff, der für so vieles gebraucht wird, dass seine einzige wahre Bedeutung lautet: 'Mach es, ohne darüber nachzudenken, was du da tust.'"

Bei all den sehr unterschiedlichen Diensten, die nur die Zentralisierung von Datenverarbeitung und -Speicherung gemeinsam haben, gerät ein anderes Konzept langsam in Vergessenheit: Das Peer-to-Peer-Prinzip, bei dem gleichberechtigte Rechner über viele Querverbindungen untereinander ein Netz aufbauen.

Die Facebook-Alternative Diaspora zum Beispiel betreibt ein soziales Netzwerk als gemischtes System mit zentralen Servern und gleichberechtigten Clients, die sich untereinander austauschen können. Nicht jeder vernetzte Dienst muss also völlig zentralisiert aufgebaut sein - eine solche Architektur bietet oft den größten Vorteil dem Betreiber des zentralen Anlaufpunkts.