"Top 500"-Liste Münchner Supercomputer erneut unter den zehn schnellsten der Welt

Mit 19,5 Billiarden Rechenoperationen pro Sekunde gehört der SuperMUC-NG am Leibniz-Rechenzentrum bei München zu den leistungsstärksten Computern der Welt. Doch für die Spitze reicht das längst nicht.

Derzeit der neuntschnellste Supercomputer der Welt: SuperMUC-NG am Leibniz-Rechenzentrum
Veronika Hohenegger/ LRZ

Derzeit der neuntschnellste Supercomputer der Welt: SuperMUC-NG am Leibniz-Rechenzentrum


Die zwei derzeit schnellsten Supercomputer der Welt hat beide IBM gebaut - und beide stehen in den USA. Das geht aus der am Montag aktualisierten "Top 500"-Liste hervor. Demnach ist "Summit" mit einer Rekordleistung von 148,6 Petaflops der schnellste Rechner überhaupt. Er steht am Oak Ridge National Laboratory in Tennessee. Platz zwei nimmt die Anlage "Sierra" am Lawrence Livermore National Laboratory in Kalifornien ein, die auf eine Spitzenleistung von 94,6 Petaflops kommt. Flops ist die Abkürzung für Floating Point Operations per Second, also Gleitkomma-Operationen pro Sekunde.

Auf Platz drei folgt China mit seinem schnellsten System "Sunway TaihuLight", das mit 93 Petaflops am nationalen Supercomputer-Zentrum in Wuxi installiert ist. Auch den vierten Platz belegt China - mit "Tianhe-2A", genannt "Milky Way", aus Guangzhou mit 61,4 Petaflops.

Die USA kommen insgesamt auf fünf Anlagen in den Top Ten. Vor einem Jahr hatte die Liste noch China angeführt. Neben den USA und China sind noch die Schweiz ("Piz Daint" mit 21,2 Petaflops, Platz sechs), Japan ("AI Bridging Cloud Infrastructure" mit 19,8 Petaflops, Platz acht) sowie Deutschland auf den ersten zehn Plätzen vertreten.

Selbst der letzte der Liste spielt in der Petaflops-Liga

Die Anlage SuperMUC-NG am Leibniz-Rechenzentrum in Garching bei München schaffte es mit einer Leistung von 19,5 Petaflops aber nur noch auf Platz neun. Vor einem halben Jahr war es noch Platz acht.

SuperMuc-NG wurde von Lenovo gebaut und steht Forschern aus ganz Europa zur Verfügung, die in Bereichen wie der Astro- und Festkörper-Physik, in der Medizin oder in der Katastrophen- und Umweltforschung arbeiten.

Die "Top 500"-Liste hat in ihrem 26. Jahr einen Meilenstein erreicht: Erstmals kommt selbst der an 500. und damit letzter Stelle gelistete Rechner auf eine Leistung im Petaflops-Bereich. Petaflops entsprechen Billiarden Rechenoperationen pro Sekunde.

Zur Einordnung: Die Grafikkarten in Apples kommendem Desktop-Rechner Mac Pro sollen bis zu 56 Teraflops schaffen, also 56 Billionen Rechenoperationen (genauer: Gleitkomma-Operationen) pro Sekunde. Noch im Jahr 2006 hätte das für Platz vier auf der Liste gereicht. Heute sind die stärksten Anlagen um den Faktor 1000 schneller.

Kritik an der Messung

Die "Top 500"-Liste wird von vier Forschern und Tech-Experten erstellt. Seit 26 Jahren wird sie zweimal jährlich aktualisiert, jeweils zur Supercomputer Conference, die diesmal in Frankfurt am Main stattfindet.

Manche Kritiker betrachten allerdings die Art der Messung als nicht mehr zeitgemäß. Die Leistung wird nämlich nach dem sogenannten Linpack-Benchmark ermittelt, der nicht repräsentativ ist für alle Operationen, die üblicherweise zum Betrieb der Anlagen gehören. Das aber könne keine einzelne Zahl ausdrücken, sagen die "Top 500"-Organisatoren.

pbe/dpa

Mehr zum Thema


insgesamt 5 Beiträge
Alle Kommentare öffnen
Seite 1
Antila 17.06.2019
1. Und?
Es geht um die Qualität der Software.
noch_ein_forenposter 17.06.2019
2.
Zitat von AntilaEs geht um die Qualität der Software.
Um die geht es natürlich immer, hat aber mit dem Artikel nichts zu tun. Es geht darum, immer komplexere Probleme immer schneller rechnen zu können. Dafür braucht man möglichst viele CPUs, GPUs und schnelle Verbindungen zwischen den Rechnern. Darauf läuft dann zum Teil kommerzielle Standardsoftware oder auch selbst entwickelte Software.
ArRah 17.06.2019
3.
Zitat von AntilaEs geht um die Qualität der Software.
Vollkommen richtig! Die Idioten geben hundete Millionen aus, weil die zu doof sind gute Programmierer einzustellen. Jedes relevante Problem kann auf einem 40MHz 80486 gelöst werden. /s Okay, jetzt mal ernst: wie kommen Sie auf den Blödsinn? Was meinen sie überhaupt mit "Qualität der Software"? Auf solchen Systemen läuft keine Anwendersoftware, sondern verhältnismäßig einfache Programme, die z.B. riesige Matrizen lösen. Es kann also nur um Effizienz gehen, da jede andere Metrik, die Qualität einer Software zu messen (z.B. Anwenderfreundlichkeit), hier nicht relevant ist. Der Hauptrechenaufwand ist oft eine Routine die wenige hundert Zeilen Code hat und mehrere Millionen Mal pro Sekunde aufgerufen wird (auf eine riesige Anzahl an Prozessoreinheiten verteilt). Diese Routinen sind auf eine Art optimiert, die seit 20 Jahren bei Endkunden-SW nicht mehr angewendet wird: Es wird bei jeder Operation auf Registerlevel (also fast Transistorlevel) nachvollzogen was passiert und es wird versucht einzelne Rechentakte einzusparen. Dies ist besonders relevant, im Bezug auf die Frage: wie werden die einzelnen Prozessoreinheiten so gut getimed mit Daten versorgt, dass sie nie auf neue Daten warten müssen. Auf der anderen Seite gibt es dann spezielle Programme, die von einzelnen Forschern entwickelt werden und oft sehr suboptimal sind. Ich vermute aber, dass solche Programme nicht auf den ganz großen Superrechnern laufen dürfen. Wie dem auch sei, wenn man ein spezialisiertes Programm hat, das im Extremfall nur einmal aufgeführt werden muss, ein Ergebnis liefert und dann nie wieder angefasst wird, warum sollte dann das Programm optimiert werden? Da ist doch nur die Frage ob die Optimierung mehr kostet als die Rechenzeit. Das ist meistens der Fall!
ArRah 17.06.2019
4.
Ich bin ja der Meinung: wenn der Autor nicht erklären will (oder kann) was Fließkommaoperationen sind, dann sollte es das Wort auch nicht erwähnen. Für das Verständnis des Artikels recht doch wenn man von Rechenoperationen spricht. Zumindest weiß jeder, der den Unterschied zwischen Fließkomma und Festkomma verstanden hat auch was FLOPS sind. Wen es wirklich interessiert (wenn auch wie gesagt nicht nötig), dies ist der Unterschied: Daten in Computern werden in Speicherstellen abgelegt. Eine Speicherstelle hat eine bestimmte Anzahl an Bits, die zuvor festgelegt werden muss. Wenn eine Speicherstelle z.B. 8 Bit hat kann sie 256 verschiedene Zustände einnehmen (alle möglichen Kombinationen von 0 und 1). Man könnte also z.B. die Zahlen von 0 bis 255 in dieser Zelle speichern. Oder die Zahlen von -128 bis +127. Eine Speicherstelle mit 7 Bit kann nur 128 Zustände speichern. Somit ist es dann möglich in einer 8-Bit-Speicherstelle alle Zahlen von 0 bis 127 zu speichern und das übrigbleibende achte Bit steht für 0,5. Jetzt kann also nicht nur z.B. 2 oder 3 in der Speicherstelle gespeichert werden, sondern auch 2,5. Das ist eine Festkommazahl. Eine feste Anzahl an Bits wird für den Bereich vor dem Komma (im Beispiel 7) verwendet und der Rest wird für den Bereich nach dem Komma verwendet. Das Problem ist: Dies ist wahnsinnig einschränkend. Wenn die Zahl jemals größer als der Bereich wird, dann gibt es einen Fehler (ein sogenannter Überlauf). Fließkommazahlen umgehen das. Hier werden zwei Speicherstellen festgelegt: Die Mantisse und der Exponent. Die Mantisse ist z.B. 1,337. Wenn der Exponent 4 ist dann wird das Komma um 4 stellen nach rechts verschoben, das Ergebnis ist also 13370. Wenn der Exponent -4 ist, dann wird das Komma um 4 stellen nach links verschoben, also 0,0001337. Mit diesem System kann man extrem große und extrem kleine Zahlen darstellen. Ein Problem ist die Genauigkeit. Es kann zwar 13370 dargestellt werden, aber nicht 13371 (da die Speicherstelle für die Mantisse nicht groß genug ist). Ein anderes Problem sind Rechenoperationen. Die Zweiteilung in Mantisse und Exponent macht diese viel komplizierter. Grade für Naturwissenschaftliche Berechnungen und für 3D-Grafik (deshalb die Erwähnung der Grafikkarte im Artikel) werden Fließkommazahlen benötigt. Deshalb haben sich FLOPS als Metrik für solche Supercomputer durchgesetzt (die oft aus einer großen Anzahl an Grafikkarten zusammengebaut werden, da diese auf hohe FLOP-Raten spezialisiert sind). Die klassischen Mega/Giga-Hertz (also Rechentakte pro Sekunde) sind hier unsinnig, da eine Fließkommaoperation mehr oder weniger Takte brauchen kann und eine große Anzahl an relativ langsamen Rechenkernen oft besser für solche Anwendungen ist, als eine kleine Anzahl von sehr schnellen Kernen.
frenchie3 18.06.2019
5. @4 Wie Sie es selber sagen:
man muß es zum Verständnis des Artikels nicht wissen was Gleitkommaoperationen sind. Mir entzieht sich aber warum es der Autor dann nicht erwähnen soll. Um Platz für Besserwisser zu lassen?
Alle Kommentare öffnen
Seite 1

© SPIEGEL ONLINE 2019
Alle Rechte vorbehalten
Vervielfältigung nur mit Genehmigung


TOP
Die Homepage wurde aktualisiert. Jetzt aufrufen.
Hinweis nicht mehr anzeigen.