Physikalische Grenze der Chip-Entwicklung Kleiner geht's nicht

Fünfzig Jahre lang wurden Computerchips stetig kleiner, günstiger und leistungsfähiger. Doch jetzt naht das Ende dieses mooreschen Gesetzes. Stockt die digitale Revolution, weil das Schrumpfen ein Ende hat?

Von

Siliziumscheibe auf einer Konferenz von Chiphersteller Intel
AFP

Siliziumscheibe auf einer Konferenz von Chiphersteller Intel


Die ersten Computer waren raumfüllend. Ein paar Jahre später waren sie immer noch riesig, irgendwann nur noch klobig. Heute hat ein normales Smartphone 120 Millionen Mal die Rechenleistung des Steuercomputers des Apollo-Mondprogramms der Nasa. Das iPad 2 hätte es noch im Jahr 1994 auf die Liste der schnellsten Supercomputer der Welt geschafft.

Ohne immer kleinere, leistungsfähigere und trotzdem günstigere Chips wäre diese Entwicklung nicht möglich gewesen. Doch womöglich ist die Chipindustrie an einem Punkt angelangt, an dem sie ihr Prinzip des exponentiellen Wachstums verwerfen muss - oder völlig neu denken. Verliert die digitale Revolution gerade jetzt, wo sie nahezu alle Lebensbereiche zu durchdringen beginnt, den Schwung?

Jahrzehntelang galt für die Chipherstellung die simple Regel des Gordon Moore. Der Chemiker und Physiker war Mitgründer des heute weltgrößten Halbleiterherstellers Intel. Im April 1965 formulierte er in der Zeitschrift "Electronics" mit Blick auf die bisherige Entwicklung eine Prognose, die verblüffende 50 Jahre lang Gültigkeit behalten sollte: Moore stellte fest, dass sich die Anzahl der Schaltkreiskomponenten auf einem integrierten Schaltkreis jedes Jahr verdoppele und prognostizierte, dass das erst einmal so weitergehen werde. Später korrigierte er die Zeitspanne auf zwei Jahre.

Der Colossus gilt als erster programmierbarer elektronischer Digitalcomputer der Welt. Er wurde 1943 während des Zweiten Weltkriegs vom englischen Ingenieur Tommy Flowers entwickelt. Der sollte im Auftrag der Briten eine Maschine entwickeln, die die Lorenz-Schlüsselmaschine der deutschen Armee entschlüsseln konnte - und somit die Kommunikation des Kriegsfeindes. Die Rechengeschwindigkeit des Colusssus: 5000 Operationen pro Sekunde.

Der CDC 1604 des US-Unternehmens Control Data Corporation kam 1960 auf den Markt und hatte eine Leistung von etwa 300.000 Gleitkommaoperationen pro Sekunde, FLOPS abgekürzt. Seine zuverlässige Arbeitsweise machte ihn zum Verkaufserfolg. Ein Nachfolger, der CDC 6600, galt bei seiner Markeinführung 1965 sogar als schnellster Computer der Welt: Er arbeitete rund dreimal so schnell wie der vorherige weltweit leistungsstärkste Computer, der IBM 7030 Stretch. Der CDC 6600 hatte eine Rechengeschwindigkeit von drei Millionen FLOPS.

Der dritte Supercomputer aus dem Hause Cray konnte nicht nur rechnen, sondern hätte auch locker als Inneneinrichtung für eine Discothek herhalten können. Auf anderen Modellen des Herstellers konnte man bequem Platz nehmen: Sie dienten als Sitzgelegenheit, in leuchtenden Farben. Der Cray-2 im Bild löste den Cray X-MP als Spitzenreiter unter den Großrechnern ab: Von 1985 bis 1990 war die futuristisch designte Rechenmaschine der schnellste Computer der Welt. Rechengeschwindigkeit: 3,9 Millionen FLOPS.

Der damalige Direktor des National Supercomputing Research Center of Singapore, William Hale, zeigt in einem Archivfoto den Cray T94. Er stammt aus der Cray-T90-Serie, die ab 1995 ausgeliefert wurde. Der T94 hat zwischen acht und 16 Prozessoren, während sein großer Bruder, der T932, bis zu 32 Prozessoren hat. In der großen Version war der Cray nicht gerade ein Schnäppchen: Er kostete rund 35 Millionen Dollar.

Der Apple I gehört zu den ersten Computern, die der heutige Weltkonzern Apple 1977 verkaufte, damals für 666 Dollar.

Erst "Load", dann "Run": So startete man Programme auf dem heute legendären Commodore 64. Er eröffnete den Kindern der Achtzigerjahre eine neue Spielewelt - wenn die Eltern die 1495 Mark Kaufpreis locker machen konnten. So viel kostete der C64 nämlich bei Verkaufsstart in Deutschland 1983.

Stolze 3250 Quadratmeter nahm der Earth Simulator des Elektronikkonzerns NEC ein. In Yokohama war eigens ein neues Gebäude errichtet worden, das groß genug war, den Riesenrechner zu beherbergen. Seine Aufgabe war es, ein umfangreiches Datenmodell des Weltklimas zu berechnen, etwa um die Folgen der globalen Erwärmung vorhersagen zu können. Das erforderte enorme Leistung: Von 2002 bis 2004 war der Earth Simulator der schnellste Supercomputer der Welt. Rechengeschwindigkeit: 35.860.000.000.000 FLOPS

Der Roadrunner war 2008 der ganze Stolz von IBM: Damals gab die Firma bekannt, dass der Rechner als erster Computer der Welt mehr als eine Billiarde Operationen in der Sekunde geschafft und damit die PetaFLOPS-Grenze gesprengt hatte.

Doch in der Welt der Computer hielt der Rekord des IBM-Roadrunners nicht lange. Schon ein Jahr später, im November 2009, wurde der 133 Millionen Dollar teure Riesenrechner von seinem Spitzenplatz als schnellster Computer der Welt verdrängt - von einem Großrechner namens Jaguar. Rechengeschwindigkeit: 1.105.000.000.000.000 FLOPS

2013 war der Titel des schnellsten Supercomputers der Welt schon längst weitergegangen ans amerikanische Oak Ridge National Laboratory in Knoxville. Der dortige Titancomputer enthielt zahlreiche Bauteile seines Vorgängermodells, des Großrechners Jaguar, war aber noch mal deutlich schneller. Der Titan belegte Ende 2015 immer noch einen Spitzenplatz unter den Supercomputern. Rechengeschwindigkeit: 17.590.000.000.000.000 FLOPS.

iPhone, MacBook Air und iPad 2 in einer Ladenauslage: Die Rechenleistung von Technik hat sich so rasant entwickelt, dass das abgebildete iPad 2 1994 noch zu den schnellsten Computern der Welt gezählt hätte.

Der aktuell schnellste Computer der Welt steht in China, im National Super Computer Center in Guangzhou. Der Tianhe-2 kommt zumindest auf einem weltweiten Ranking aus dem November 2015 auf den ersten Platz unter den Supercomputern. Er liegt vor dem Titan von Cray und dem Sequoia von IBM und hatte in seiner ersten Ausbaustufe schon eine Rechenleistung von 33,86 PetaFLOPS. Und natürlich sollen das noch mehr werden.

"Das mooresche Gesetz ist am Ende", sagt ein IBM-Forscher

Als Moore's Law, das mooresche Gesetz, wurde die Prognose zum selbstverständlichen Pfeiler, zum Leitsatz der Industrie. Sie hielt viel länger, als Moore selbst das je erwartet hätte. Firmen wie Apple oder Microsoft konnten jahrzehntelang darauf zählen, dass Chips - wie einem Naturgesetz folgend - der Voraussage entsprachen.

Bereits in den Neunzigerjahren wurde aber diskutiert, wann die Entwicklung von immer kleineren Computerchips mit immer mehr Leistung stocken werde. Die Chiphersteller verfeinerten ihre Verfahrenstechniken, reizten jeden Vorteil aus, verschafften sich Zeit - bis jetzt.

Thilo Maurer auf der Cebit
SPIEGEL ONLINE

Thilo Maurer auf der Cebit

"Das mooresche Gesetz ist am Ende", sagt Thilo Maurer. Er erforscht Halbleitertechnologie für IBM. "Es gibt physikalische Grenzen, an denen wir nicht rütteln können." Auch das Fachmagazin "Nature" warnte im Februar von dem nahen Ende des Schrumpfprinzips.

Der aktuelle Intel-Chef Brian Krzanich verkündete schon letztes Jahr, dass sich die Entwicklungsdauer von einer Generation von Intel-Mikroprozessoren zur nächsten auf zweieinhalb Jahre verlängern werde. Der von Moore definierte Zeitraum von zwei Jahren war nicht mehr haltbar - auch wenn Krzanich rasch betonte, es könne sich auch nur um eine temporäre Entwicklungsdelle handeln. Das aber erscheint zunehmend unwahrscheinlich.

Kleiner als ein paar Atome geht nicht - und rechnet sich nicht

Die Chipindustrie denkt schon längst in unvorstellbar kleinen Größen. Sie rechnet in Nanometern, also Millionstel Millimetern. Mit dem bloßen Auge kann man solche Strukturbreiten längst nicht mehr erkennen, ein Haar wirkt im Vergleich dick wie ein Baumstamm. Auf einen modernen Prozessor mit wenigen Quadratmillimetern Größe lassen sich heute mehrere Milliarden Transistoren quetschen. Intels 4004-Prozessor von 1971 fasste nur 2300 Transistoren.

Produktion des IBM 4300-Prozessors im Jahr 1979
Corbis

Produktion des IBM 4300-Prozessors im Jahr 1979

Die Leiterbahnen von heute sind nur noch ein paar Atome breit. Bei solchen winzigen Größen angelangt, kommen die Gesetze der Quantenmechanik ins Spiel, sagt IBM-Forscher Maurer. Sie bringen das Teilchenverhalten durcheinander. "Die aktuelle Siliziumtechnologie schafft es voraussichtlich nur noch, bis sieben oder fünf Nanometer zu kommen", schätzt er. Dann ist Schluss mit der Miniaturisierung.

Die letzten physikalisch möglichen Schrumpfprozesse seinen außerdem "mit erheblich höherem Entwicklungsaufwand" verbunden. Je weiter man die Chip-Architektur noch verkleinern will, desto kostspieliger wird es.

Moore's Law bestand auch fort, weil die Branche immer bereit war, das für den Fortschritt nötige Geld zu investieren. Manche Hersteller geben nun schon vor der Fünf-Nanometer-Grenze auf. Toshiba etwa hat 2015 angekündigt, dass es seine weit verbreiteten sogenannten Nand-Flash-Speicher nicht mehr weiter schrumpfen lassen will. Auf unter 15 Nanometer kommen zu wollen, ergebe keinen Sinn.

Moderne Chipfabrik in Südkorea
REUTERS

Moderne Chipfabrik in Südkorea

"Mehr als Moore", lautet der neue Leitsatz

Dass die bisher praktizierte Verdichtung von Transistoren auf einem Chip, wie Moore sie beschreibt, an ihre Grenzen stößt, bedeutet aber kein Ende der Chipentwicklung. Die Branche forscht unter dem Motto "More than Moore" an neuen Ideen.

"Die Diskussion um Moore's Law sollte berücksichtigen, dass es mehr gibt als Miniaturisierung", heißt es etwa von Chiphersteller Infineon. "Die technischen Möglichkeiten, Halbleiter kleiner, kostengünstiger und gleichzeitig funktionsfähiger zu gestalten, sind noch lange nicht ausgereizt."

Viele Hersteller setzen zum Beispiel darauf, ihre Prozessoren zu spezialisieren und mehr Leistung zu erreichen, indem sie verschiedene Spezial-Chips in ein System integrieren. Sie können in ihrem Aufgabenbereich höhere Leistungen erzielen als allgemein ausgerichtete Prozessoren.

Chips wachsen jetzt in die Höhe

Wenn es nicht mehr kleiner geht, liegt außerdem nahe, die bestehenden Flächen besser zu nutzen. Chiphersteller entwickeln deshalb mit Hochdruck neuen Aufbau- und Verbindungstechniken - zum Beispiel das vertikale Stapeln oder das horizontale Verteilen in einem gemeinsamen Gehäuse.

Toshiba mag die Entwicklung seiner Nand-Flash-Bausteine eingestellt haben - das gilt aber nur für die 2D-Variante, sagt Axel Störmann von Toshiba. Stattdessen fokussiert man sich auf die Entwicklung von 3D-Varianten. So sei noch mal deutlich mehr Leistung möglich. Moores Gesetz muss also doch noch nicht ganz abgeschrieben werden.

Man kann sich den Bau in 3D etwa so vorstellen wie bei einer Stadt, die immer dichter besiedelt worden ist, sagt Störmann, der sich bei Toshiba insbesondere mit Flash-Speichern beschäftigt. Irgendwann sind alle Bauflächen ausgenutzt. Also wächst die Nutzfläche in die Höhe weiter. Es entstehen Hochhäuser und Wolkenkratzer.

So ähnlich ist es auch beim 3D-Nand-Flash. Aktuell stapelt Toshiba 48 Lagen, im nächsten Schritt sollen es schon 64 sein, sagt Störmann. "Wir müssen schauen, wie weit wir das bei der Fertigung treiben können. Ich schätze, dass über hundert Lagen möglich sind, aber nicht viel mehr."

Das menschliche Gehirn als Vorbild

Die Grenzen von Moore's Law sind auch der Anstoß, radikale Ansätze auszuprobieren und Selbstverständlichkeiten der Branche infrage zu stellen: Zum einen wird der Grundbaustein der Halbleitertechnologie, das Silizium, auf den Prüfstand gestellt. Das Leibniz-Institut für innovative Mikroelektronik etwa untersucht, ob sich nicht Germanium oder Graphen besser für Chips eignen könnten.

Bei IBM forschen Maurer und Kollegen außerdem im SyNAPSE-Projekt mit neuromorphen Systemen weiter. Solche Systeme orientieren sich an den Strukturen des Nervensystems von Menschen. Die Architektur von Chips wird grundlegend verändert mit dem menschlichen Gehirn als Vorbild. Das soll mehr Leistung bringen und Strom sparen - die neuen Chips bräuchten deutlich weniger Energie als bisherige Chips, verspricht IBM.

"Wir können so eine ganz neue Art der Datenverarbeitung etablieren", sagt Maurer. Dass das ein ziemlich hochgestecktes Ziel ist, weiß er. Das Ende von Moore sei aber eben nicht das Ende des Fortschritts.

Halbleiterbauelemente: Die Rechenknechte des IT-Zeitalters
Transistor
Deutsches Museum
Transistoren können elektrische Signale verstärken (wichtig beim Einsatz in Radios) oder als nicht-mechanische Schalter wirken. Als Schalter können Transistoren die beiden grundlegenden Zustände des Binärsystems darstellen: Strom oder kein Strom, 1 oder 0 – die Basis der Informationstechnologie.
integrierter Schaltkreis
Texas Instruments
Ein integrierter Schaltkreis fasst Elemente wie Transistoren, Widerstände und Kondensatoren zusammen. Auf Computerprozessoren finden heute Millionen von Transistoren Platz – 820 Millionen zum Beispiel auf Intel-Chips der "Penryn"-Reihe.

Forum - Diskutieren Sie über diesen Artikel
insgesamt 257 Beiträge
Alle Kommentare öffnen
Seite 1
Untertan 2.0 26.03.2016
1. Ausgereift
Nun ja, jede Technik ist irgendwann ausgereift. Innovationen wird es noch geben, aber eben nicht mehr im selben, atemberaubenden Tempo. Die Rechenlaistung der meisten Computer ist heutzutage sowieso überdimensioniert...
behr22 26.03.2016
2.
CPU stoßen vielleicht aktuell an Grenzen, dafür gibt es aber noch eine große Dynamik bei GPUs. Bei vielen Problemen kann man einem Speedup von 150-200 mit GPUs erreichen und die nächste Generation wird die Leistung wahrscheinlich nochmal um den Fakor 2x steigern
palart 26.03.2016
3. Nur keine Panik
Aber bitte, nur keine Panik. Die meisten Rechner haben schon seit einigen Jahren mehr als genug Leistung im Alltagsgebrauch. Nun findet eine Konsolidierung statt und Mehrfachprozessoren helfen, wenn jemand wirklich noch mehr Leistung will. Deshalb werden nicht weniger Geräte verkauft.
mikechumberlain 26.03.2016
4.
"Colossus gilt als erster programmierbarer elektronischer Digitalcomputer. Er wurde 1943...." Hallo Spon wo habt Ihr den Artikel abgekupfert? Bestimmt von der englischen oder amerikanischen Presse, die beanspruchen ja immer die Ersten gewesen zu sein. Schade das Ihr da so ungehemtt mitmacht. Um die Geschichte mal für Eure jungen Leser zurechtzurücken: Die Z3 war der erste funktionsfähige Digitalrechner weltweit und wurde 1941 von dem deutschen Konrad Zuse in Berlin gebaut.
mimas101 26.03.2016
5. Hmm Tja
und das Ende vom Lied ist mittlerweile das die neuen Nano-Mikro-Meter Chips derart empfindlich sind das die NASA für Weltraumgeräte händeringend nach uralten ICs sucht die nur ein paar tausend Transistoren auf den Chips haben.
Alle Kommentare öffnen
Seite 1

© SPIEGEL ONLINE 2016
Alle Rechte vorbehalten
Vervielfältigung nur mit Genehmigung der SPIEGELnet GmbH


Die Homepage wurde aktualisiert. Jetzt aufrufen.
Hinweis nicht mehr anzeigen.