Chip-Hersteller Intel wird 50 "Nur die Paranoiden überleben"

Intel ist der bekannteste Chip-Hersteller der Welt: Das Unternehmen blickt auf bewegte, aber erfolgreiche 50 Jahre Firmengeschichte zurück. Derzeit jedoch plagt das Unternehmen ein Design-Problem.

Intel-Zentrale in den Siebzigerjahren
DPA

Intel-Zentrale in den Siebzigerjahren


Intel feiert seinen 50. Geburtstag. Ein halbes Jahrhundert lang hat der Chip-Hersteller mit seinen Erfindungen maßgeblich die Digitalisierung vorangebracht und das Zeitalter des Personal Computers (PC) überhaupt erst ermöglicht.

Das Firmen-Jubiläum am 18. Juli will Intel gebührend begehen. 1500 Drohnen sollen am Unternehmenssitz in Santa Clara synchron aufsteigen und eine fulminante LED-Lichtshow in den Himmel schreiben. Das soll ein Weltrekord werden - und zeigen, dass Intel noch immer innovativ und agil ist.

Doch trotz der Erfolgsgeschichte wird ein Umstand die Geburtstagslaune trüben: Im Kern der Intel-Prozessoren klaffen gefährliche Lücken. Und sie könnten nur die Spitze eines Eisbergs sein, vermuten Fachleute.

Der Grundstein für den modernen Mikroprozessor

In die Erfolgsspur brachten den heutigen Weltkonzern vor genau 50 Jahren seine Gründer, der Physiker Bob Noyce und sein Kollege Gordon Moore. Beide zählen zu den legendären "Untreuen Acht" an, einer Gruppe von Managern, die zuvor aus Unzufriedenheit mit der Entwicklungsstrategie ihres früheren Arbeitgebers Shockley Semiconductor Laboratory eine eigene Firma namens Fairchild Semiconductor gegründet hatten.

Noyce und Moore sahen die Zukunft darin, mehrere Transistoren auf einem Stück Halbleiter zu verbinden. Mit seiner Erfindung des integrierten Schaltkreises legte Noyce gemeinsam mit Jack Kilby von Texas Instruments den Grundstein für den modernen Mikroprozessor, der auch heute noch das Herz eines jeden PCs bildet.

Zunächst legte Intel den Schwerpunkt auf die Produktion von Speicherchips. Der erste Mikroprozessor entstand 1971 kurioserweise, weil zwei Intel-Ingenieure den Wunsch eines Kunden schlicht ignorierten. Eigentlich sollten sie einen Chip für eine simple Rechenmaschine bauen.

Die Intel-Entwickler entschieden dann aber auf eigene Kappe, einen deutlich leistungsfähigeren Chip zu konstruieren, Intels ersten serienreifen Mikroprozessor 4004. Erst 1978 brachte Intel dann mit dem 8086 den ersten Prozessor der x86er-Reihe auf den Markt, der die PC-Ära einläutete.

Die "Wintel"-Allianz

In den folgenden Jahrzehnten trug vor allem die Partnerschaft mit Microsoft zum florierenden Geschäft für Intel bei, die als "Wintel"-Allianz in die Geschichte einging. Immer leistungshungrigere Software erforderte immer leistungsfähigere Hardware.

Mit seinem kleinen Konkurrenten AMD ging Intel dabei nicht zimperlich um. Seit fast einem Jahrzehnt droht Intel deswegen von der EU-Kommission eine Milliarden-Strafe wegen unfairen Wettbewerbs. Der Fall geht noch durch die Gerichtsinstanzen.

Das goldene PC-Zeitalter neigt sich allerdings dem Ende entgegen - und Intel bekommt diese Entwicklung zu spüren: Die Verkäufe von PCs gingen in den vergangenen Jahren stetig zurück. Inzwischen ist das Smartphone das meistgenutzte Gerät für den Zugang ins Netz, große Rechenleistung mietet man sich heute häufig in der Cloud.

Intel gelang es zwar, im Server-Geschäft deutlich zuzulegen, den Sprung ins Mobilzeitalter verpassten die Kalifornier dagegen. Trotz zahlreicher Anläufe gelang es den Entwicklern nicht, den Strom-Hunger der Chips zu reduzieren. Smartphone-Hersteller entschieden sich deshalb lieber für stromsparende Prozessoren nach Vorlage des britischen Chip-Designers ARM.

Neue Kooperationen

Um der Nachfrage nach immer leistungsfähigeren und energieeffizienten Chips nachzukommen, geht Intel inzwischen Kooperationen mit Herstellern von Grafik-Chips (GPU) ein. Lange galten diese gegenüber den Computer-Prozessoren (CPU) als Rechenknechte, an die einfache und wiederkehrende Arbeiten ausgelagert werden können. Doch ihre Bedeutung nimmt für moderne Simulationen und künstliche Intelligenz stetig zu.

Vor diesem Hintergrund hat Intel auch seine lange Feindschaft mit AMD aufgegeben und verbaut in seinen neusten Chipsets "Kaby Lake G" für Laptops neben seinen CPUs auch AMDs "Radeon"-GPUs. Die Kombi-Einheiten sollen deutlich besser aufeinander abgestimmt sein und auch merklich weniger Energie erfordern.

Zuvor hatte Intel schon Technologie des Grafik-Chip-Anbieters Nvidia lizenziert, doch aus den Partnern werden zunehmend Konkurrenten: Mit seinen jüngsten Produkten stößt Nvidia in den Markt für Server und Hochleistungscomputer vor, die traditionelle Domäne von Intel.

Die Grafik-Chips kommen

Schaut man sich die aktuelle Liste der schnellsten Supercomputer der Welt an, erkennt man, wie gut Nvidia sich als Intel-Rivale inzwischen in Stellung gebracht hat. Erstmals seit 25 Jahren lieferten nicht CPUs, sondern GPUs den größten Anteil der Rechenleistung. Der Einzug der Grafik-Chips in die Forschungs-Labore, Universitäten und kommerzielle Datenzentren werde die Landschaft der Supercomputer für immer verändern, schätzt Michael Feldman, Chefredakteur der "Top-500-Liste".

Höchste Zeit für Intel, jetzt selbst verstärkt auf Grafik-Chips zu setzen. Ende letzten Jahres stellte Intel den GPU-Chefarchitekten von AMD, Raja Koduri ein, der kürzlich über Twitter ankündigte, dass Intel bereits bis 2020 einen eigenen diskreten GPU-Chip bauen wolle.

Außer mit der wachsenden Konkurrenz aus ganz neuer Richtung hat Intel - und damit die gesamte PC-Industrie - in nächster Zukunft mit noch einem Problem zu kämpfen: Vor rund einem Jahr wurden verheerende Lücken direkt im Design der Prozessoren von Intel, aber auch anderer Anbieter entdeckt.

"Spectre" und "Meltdown"

Das potenzielle Einfallstor war Jahrzehnte unentdeckt geblieben. Es bietet mit "Spectre" und "Meltdown" eine völlig neue Klasse von Angriffsmöglichkeiten. Dabei wird ein Design-Merkmal der Chips ausgenutzt, das eigentlich die Rechenprozesse beschleunigen soll. Noch ist es offenbar zu keinen Angriffen gekommen, doch das kann sich jederzeit ändern.

Die Hersteller arbeiten seither mit Hochdruck daran, mit Updates und Patches die Lücken zu stopfen - was bislang das Risiko eines Angriffs allerdings nur abgemildert hat. Und: Anfang Mai entdeckten Forscher gleich acht neue Sicherheitslücken nach ähnlichem Strickmuster in Intel-Prozessoren. Wie das IT-Fachmagazin "c't" berichtet, schätzt Intel selbst vier der "Spectre"-Lücken als hoch riskant ein.

Verschärfend kommt hinzu, dass Intel mit Robert Swan derzeit nur einen Interimschef hat. CEO Brian Krzanich trat Mitte Juni zurück, nachdem eine Jahre zurückliegende Affäre mit einer Mitarbeiterin bekannt geworden war: Intel hat strenge Regeln gegen private Beziehungen im Unternehmen. Eine Nachfolge steht noch nicht fest.

Erinnerungen an die Neunzigerjahre

Die Krise erinnert an einen Moment, in dem Intel einmal dicht am Abgrund stand: Mitte der Neunzigerjahre wurde ein Fehler bei einem Pentium-Chip entdeckt, der sich bereits im Handel befand. Zunächst hatte Intel versucht, den Fehler zu vertuschen, dann stillschweigend zu korrigieren.

Intel weigerte sich auch nach Protesten, die Chips auszutauschen - was in der Öffentlichkeit eine Welle der Empörung auslöste. Immerhin hatte Intel damals einen Chef, der mit einem Machtwort die Krise beenden konnte: Der langjährige CEO Andy Grove entschuldigte sich öffentlich und startete ein umfangreiches Austauschprogramm.

Legendär ist bis heute Groves Leitspruch: "Nur die Paranoiden überleben".

Renate Grimming, dpa/mbö

Mehr zum Thema


insgesamt 8 Beiträge
Alle Kommentare öffnen
Seite 1
hermann_huber 18.07.2018
1. Lücken im Vorauslese cache
war es vielleicht doch nur geschicktes Marketing der österreichischen FH Doktoren? Wenn bis dato noch keine Malware diese Nücke ausnutzt ist die ja vielleocht gar nicht so gefährloch wie Anfang des Jahres vom der FH behauptet. Damals war es ja quasi sofortiger Weltuntergang
dmenne 18.07.2018
2. In der Cloud
"große Rechenleistung mietet man sich heute häufig in der Cloud": Ahem, da rechnet mal wohl mit Regetropfen-CPUs?
Oberleerer 18.07.2018
3.
Zitat von dmenne"große Rechenleistung mietet man sich heute häufig in der Cloud": Ahem, da rechnet mal wohl mit Regetropfen-CPUs?
Es geht wohl darum, daß im Rechenzentrum an allem gespart wird und CPUs weit optimaler genutzt werden. Schlecht ausgelastete Server in jeder kleinen Firma verschwinden immer öfter ins Rechenzentrum. Dort wird durch Virtualisierung jede Menge Hardware eingespart. Einen PC daheim nutzt man nur abends ein paar Stunden und der PC im Büro ist auch nur 45h von 168h pro Woche in Betrieb. Das ist ja auch ein Ansatzpunkt zum sparen. Daheim gibt es Tablets und vlt. auch bald in der Firma.
Oberleerer 18.07.2018
4.
Der Mining-Boom war ja nur kurz, aber dem Miner wird die Schuld an den Preissteigerungen zugeschoben. Das Mining ist seit März vorüber, zumindest die Nachfrage an GPUs und die Preise sind trotzdem noch über dem Vorjahresstand. Dies liegt m.M nach an dem im Artikel bestehenden Trend auf GPUs zu setzen. Die erwähnten Rechner in der Top500 haben dann gerne mal 27.000 Tesla-Karten verbaut: https://www.heise.de/newsticker/meldung/Top500-der-Supercomputer-Amerika-first-aber-wohl-nur-kurz-4090685.html Kein Wunder, daß Nvidia sich nicht mehr um die Versorgung der Spieler kümmert. Wer 4k zocken will, kann sich ja 2 Titan-V per SLI zusammenbinden. Mit je 3.000 Euro ist das immernoch ein Schnäppchen im Vergleich zu den Teslas (um 12.000Euro). Nicht zu vergessen, intel hat auch die Multi-Core-CPUs vernachlässigt, die eben gerade für die Rechenzentren interessant sind. AMD greift zum halben Preis gerade den Markt an, mit Epyc speziell die Rechenzentren und dem Threadripper die Workstations. Bei uns sind 10-Core-Xeons mit 2GHz im Einsatz und das ist für die Virtualisierung ziemlich nervig. Im PC-Bereich hatte man die 2GHz vor 15 Jahren bereits überschritten.
homo pragmaticus 18.07.2018
5.
Ich vermisse u.a. den Hinweis auf Motorola. Ohne Apple mit seinen Motorola-Prozessoren kein IBM-PC, keine Klone davon und somit kein Intel- und Microsoft-Siegeszug. Der hier vermittelte Eindruck, Intel hätte den IC quasi erfunden, ist auch nonsense. Die ersten wichtigen Patente stammen aus den 50ern, der kommerzielle Erfolg begann in den 60ern (TI, Fairchild) und wurde vom Militär und der Raumfahrt maßgeblich gefördert. Nicht die Laune zweier Entwickler, sondern Apollo hat dem IC auf die Sprünge geholfen. Für einen Spiegel-Artikel erstaunlich lückenhaft.
Alle Kommentare öffnen
Seite 1

© SPIEGEL ONLINE 2018
Alle Rechte vorbehalten
Vervielfältigung nur mit Genehmigung der SPIEGELnet GmbH


TOP
Die Homepage wurde aktualisiert. Jetzt aufrufen.
Hinweis nicht mehr anzeigen.