Chipentwicklung bei Apple »Wir müssen gut darin sein, nichts zu tun«

Unter strenger Geheimhaltung entwickelt Apple selbst die Chips für seine Smartphones, iPads und Mac-Computer. Manager Tim Millet erklärt, was sein Team anders macht als die Entwickler bei Intel und Qualcomm.
Apple Vice President Tim Millet während einer Keynote: »Ich habe eine Weile gebraucht, um mich zurechtzufinden«

Apple Vice President Tim Millet während einer Keynote: »Ich habe eine Weile gebraucht, um mich zurechtzufinden«

Foto: APPLE INC. / AFP

Dieser Artikel gehört zum Angebot von SPIEGEL+. Sie können ihn auch ohne Abonnement lesen, weil er Ihnen geschenkt wurde.

Als einziger Hersteller von Smartphones leistet sich Apple den Luxus, die Chips für seine Smartphones, Tablets und neuerdings auch für die Computer selbst zu entwickeln. Jahr um Jahr staunt die Branche darüber, dass Apples Prozessoren schneller und oft auch sparsamer sind als die von Firmen wie Intel und Qualcomm, die seit Jahrzehnten nichts anderes tun, als Mikrochips zu entwickeln und zu vermarkten. Was macht die Firma anders?

Tim Millet ist seit 2015 Vice President Platform Architecture bei Apple und damit verantwortlich für die Entwicklung der Prozessoren, die iPhones, iPads und Macs antreiben. Er kam zu dem Unternehmen, als Steve Jobs gerade im Geheimen das erste iPhone entwickelte. Für den iPhone-Konzern zu arbeiten sei sehr ungewöhnlich, sagt Millet im Gespräch mit dem SPIEGEL. »Ich habe eine Weile gebraucht, um mich zurechtzufinden. Es war völlig anders als im übrigen Silicon Valley, wo man sich als Unternehmen, das Chips herstellt, um mehrere unterschiedliche Ziele kümmern muss.« Der Chipentwickler meint damit, dass Prozessoren normalerweise wie Gemischtwarenläden sind, die für jeden denkbaren Kunden etwas bieten müssen.

»Dieses Problem haben wir nicht«, sagt Millet und sieht darin einen Startvorteil für Apple: »Wir wissen genau, für welche Produkte wir etwas entwickeln.« Für die Kameras der iPhones beispielsweise, für die Rechenleistung essenziell ist. Der Konzern nennt die Art, wie iPhones Fotos machen, »Computational Photography«, also »Computergestützte Fotografie«. Die Linsen, die aus dem Rücken der Smartphones herausragen, und deren Sensoren liefern dabei nur die Grundlagen. Den Rest erledigen Algorithmen, also Software, die den Bildinhalt analysiert und bearbeitet. Die Bildverarbeitung in den Kameras der iPhone-13-Serie beispielsweise hätte vor Kurzem noch »einen viel, viel größeren Computer« ausgelastet, sagt Millet. Jetzt erledigt das der A15-Chip, der in den Geräten steckt.

Die iPhones der Serie 13: Kameras, die Computer sind

Die iPhones der Serie 13: Kameras, die Computer sind

Foto:

Matthias Kremp / DER SPIEGEL

Dass die Fotobearbeitung viel Rechenzeit braucht, merkt man auch bei Apples neuen Modellen noch: Ruft man direkt nach einem Schnappschuss das gerade geknipste Bild auf, sieht man, dass es erst einen winzigen Augenblick später scharf und klar erscheint. Diese Zeit brauchen die Chips, um das Rohmaterial zu bearbeiten und daraus ein gutes Bild zu machen. Der Kameraprozessor und die Neural Engine seien es, »die jetzt fortgeschrittene Fotofunktionen ermöglichen, die auch meine Mutter benutzen kann«, scherzt Millet.

Aber genau darauf scheint es anzukommen. Die Neural Engine ist ein Bereich auf dem Chip, der dem sogenannten maschinellen Lernen vorbehalten ist, Funktionen künstlicher Intelligenz, die beispielsweise zur automatischen Bildanalyse und -bearbeitung genutzt werden können. Aber eben auch für ganz andere Dinge wie Gesichtserkennung, oder um Musik in Echtzeit in ihre Bestandteile aufzusplitten, wie es die App Djay Pro Ai macht. Im Grunde ist die Neural Engine also so etwas wie ein digitales Schweizer Taschenmesser für Softwareentwickler.

Der Kinomodus frisst Rechenleistung

Eine neue Kamerafunktion, die es nur auf den neuen iPhones gibt und für die Apple bei der Präsentation der Geräte reichlich geworben hat, heißt »Kinomodus«. Ist sie aktiviert, kann man beim Videofilmen per Fingertipp dafür sorgen, dass die Kamera mal auf ein Motiv im Vordergrund und mal auf eines im Hintergrund scharf stellt. Man kann diese Arbeit aber auch dem iPhone überlassen, das automatisch erkennen soll, wenn jemand in die Kamera schaut und auf diese Person scharf stellt. In unserem Test klappte das zwar nicht immer, aber wenn es funktionierte, war das Ergebnis beeindruckend.

Mal scharf, mal nicht: Der neue Kinomodus

Es habe Jahre gedauert, so weit zu kommen, erklärt Millet. Schließlich wäre es sinnlos gewesen, »diese Funktion bereitzustellen, wenn wir die Berechnungen nur für einen Bruchteil einer Minute hätten durchführen können. Es geht nicht nur darum, genügend Rechenleistung unter die Haube zu bringen. Wir müssen genug Rechenleistung bereitstellen und diese auch aufrechterhalten können. Wir müssen das so hinbekommen, dass es wirklich eine nutzbare Funktion ist.« Die Neural Engine sei dafür essenziell gewesen.

Als Apple damit anfing, eine Neural Engine in seine Chips einzubauen, waren deren Möglichkeiten allerdings noch eng begrenzt. Sie dienten beispielsweise dazu, die Gesichtserkennung zu verbessern. »Aber jetzt, mit der gesteigerten Effizienz und Leistung, können wir damit Dinge tun, die einfach irre sind«, sagt Millet. Dabei habe er seinen Chef anfangs mühsam davon überzeugen müssen, von den wertvollen Transistoren auf einem Chip einige für eine Neural Engine abzuzweigen: »Er hat mich damals angeschaut und gefragt: ›Bist du sicher, dass das funktionieren wird?‹« Mittlerweile wird wohl niemand mehr solche Fragen stellen. Aus der anfangs auf einfache Aufgaben beschränkten Neural Engine sei mittlerweile ein »Arbeitspferd« geworden, sagt Millet.

Dass auch die Fähigkeiten der Neural Engine ihre Grenzen haben, lässt sich am Kinomodus der iPhone-13-Serie ablesen. Während andere Videomodi auf den Geräten Filme in 4K-Auflösung mit bis zu 60 Bildern pro Sekunde aufzeichnen, ist im Kinomodus bei Full HD (1080p) mit 30 Bildern pro Sekunde Schluss. »Full HD ist wahrscheinlich nicht das Limit, sondern nur eine praktikable Abstufung«, sagt Millet. »Es gibt eben physikalische Grenzen, und Gott lässt uns nicht mit der Physik spielen.«

Der Wettkampf um Transistoren

Wegen der zunehmenden Miniaturisierung ist es in der Halbleiterbranche in den vergangenen Jahren immer schwieriger geworden, verlässliche Angaben dazu zu machen, wie fein die Strukturen auf einem Chip sind. Einer der Gründe dafür ist, dass diese Strukturen mittlerweile dreidimensional auf die Chips aufgebracht werden statt nur in einer Ebene. Apple bewirbt den neuen A15-Chip dennoch mit der Angabe, er sei in einem 5-Nanometer-Prozess gefertigt.

Mit diesen Zahlen drücke man in erster Linie die relativen Größenverhältnisse zwischen Prozessorgenerationen aus, erklärt Millet. Als man von einem 7-Nanometer-Prozess zu einem mit 5 Nanometern wechselte, habe der Zuwachs an Transistoren auf den Chips in etwa dem Verhältnis der Zahlen sieben und fünf zueinander entsprochen. Für den A15-Chip der neuen iPhones habe man nun Optimierungen am Design der 5-Nanometer-Technik vorgenommen, die Prozessoren noch etwas dichter gepackt, noch etwas mehr Leistung herausgekitzelt.

Apples A15-Chip, links von außen, rechts bin schematischer Darstellung
Apples A15-Chip, links von außen, rechts bin schematischer Darstellung

Apples A15-Chip, links von außen, rechts bin schematischer Darstellung

Es könne aber nicht darum gehen, einfach nur mehr Transistoren auf einen Chip zu packen, ergänzt Bob Borchers, Vice President bei Apples Produktmarketing. Er sagt: »Wenn unsere Kunden glauben würden, ein zusätzlicher Transistor würde ein Produkt besser machen, hätten wir schon verloren«. Das Ringen um immer mehr Transistoren pro Chip vergleicht er mit den Angaben zu Smartphone-Akkus: »Viele Firmen liefern sich einen Wettkampf um Milliamperestunden. Das finde ich total bizarr, denn damit wird doch nur die Kapazität einer Batterie angegeben, aber nicht, wofür diese verwendet oder wie effizient sie genutzt wird. Wir versuchen diese Angabe so ausdrücken, dass sie auch von den Menschen verstanden wird und sagen einfach: ›Ein Tag Akkulaufzeit‹.«

Eine schöne Tomate reicht nicht

Im Grunde aber scheinen sich Apples Chipentwickler wenig darum zu kümmern, was die Konkurrenz treibt. »Wir schauen uns schon an, was vor sich geht, aber über die Wettbewerber und die von ihnen angebotenen Chips machen wir uns keine großen Gedanken, schließlich verkaufen wir keine Chips, sondern Produkte. Es macht uns nichts aus, wenn andere herausfinden, wie sie das, was wir machen, im Laufe der Zeit auch schaffen. Wir denken lieber darüber nach, was wir im nächsten Jahr machen und in dem Jahr danach.«

Die herausragende Neuerung der aktuellen iPhones liegt dann auch nicht in einem Mehr an Rechenleistung, sondern in den spürbar längeren Akkulaufzeiten. Daran habe auch der neue Chip seinen Anteil, sagt Millet: »Wie man sich vorstellen kann, sind die am meisten genutzten Funktionen eines Chips am wichtigsten. Aber das sind nicht immer die offensichtlichen Dinge. Oftmals ist es das Nichtstun. Nichts zu tun bedeutet nicht, dass man buchstäblich den Strom abstellt. Es bedeutet, dass man darauf wartet, dass der Benutzer das Display berührt, um dann den Abzug zu drücken und den Bildschirm sofort auf flüssige 120 Hertz umzuschalten. Wir müssen wirklich gut darin sein, nichts zu tun.«

Letztlich komme es aber darauf, nicht nur den Prozessor zu verbessern, um die Akkulaufzeit zu erhöhen. Das Display sei ein entscheidender Faktor, sagt Tim Millet. Und auch die Chemie der Akkus werde ständig verbessert, um deren Kapazität zu erhöhen. Es komme letztlich darauf an, in kleinen Schritten alle Komponenten eines iPhones zu verbessern, ergänzt Borchers: »Wir wollen, dass die Leute das Essen genießen und nicht sagen: Oh, wow, das war die beste Tomate aller Zeiten, aber der Rest des Salats ist nicht so toll.«

Die Wiedergabe wurde unterbrochen.