Neue Generation von Computerchips Es werde Licht

Simulation eines photonischen Hardwarebeschleunigers: »Grundsätzlich lässt sich mit optischen Schaltungen jeder beliebige Informationsverarbeitungsprozess durchführen«
Foto: University of OxfordDie Strahlen rasen mit Lichtgeschwindigkeit, sie bewegen sich entlang fixer Bahnen, werden an einer Stelle gezielt abgeschwächt, an einer anderen zu einem einzigen Strahl zusammengeführt. Was in diesem flüchtigen Augenblick auf kleinstem Raum in einem neuartigen Chip geschieht, bringt herkömmliche Rechenmaschinen regelmäßig an die Grenzen ihrer Leistungsfähigkeit. »Photonischer Hardwarebeschleuniger« nennen Forscher ihren optischen Chip, mit dem sie Anfang des Jahres die Fachwelt in Erstaunen versetzt haben . In Kombination mit herkömmlicher Elektronik soll er, sobald er das Forschungslabor verlassen hat, der künstlichen Intelligenz zu neuen Höhenflügen verhelfen.
Die Idee, Licht anstelle von Elektronen für schnelle und energieeffiziente Berechnungen zu nutzen, ist zwar nicht neu, gewinnt aber zunehmend an Bedeutung. Künstliche Intelligenz und Big Data verlangen nach immer höherer Rechenleistung. Gleichzeitig stößt die durch ständige Miniaturisierung vorangetriebene Erfolgsgeschichte des elektronischen Mikrochips langsam, aber sicher an harte, physikalische Grenzen.
Einer der wichtigsten Vorteile lichtbasierter Methoden ist die hohe Parallelität. Sofern sie unterschiedliche Farben haben, kann ein optischer Chip nämlich gleich mehrere Lichtstrahlen gleichzeitig verarbeiten. Dabei laufen die Strahlen völlig unabhängig voneinander durch die Leiterbahnen und werden erst am Ende wieder getrennt und einzeln ausgewertet. Das vervielfacht die Rechenleistung.
Ein voll einsatzfähiger Computer mit der Technik wäre denkbar
Außerdem erlaubt Optik auch eine deutlich höhere Taktfrequenz als Elektronik, wodurch die Daten schneller hintereinander in den Chip geschickt werden können. Probleme gibt es dagegen mit der Verstärkung. Da die optischen Bauelemente der Schaltungen in der Regel passiv sind, können sie das Licht in jedem Verarbeitungsschritt immer nur weiter abschwächen, was die Größe optischer Rechensysteme noch einschränkt.
Rolf Drechsler, Leiter des Forschungsbereichs Cyber-Physical Systems am Deutschen Forschungszentrum für Künstliche Intelligenz und der Arbeitsgruppe für Rechnerarchitektur an der Universität Bremen, lässt sich von solchen technischen Schwierigkeiten aber nicht abschrecken. Aus seiner Sicht kann so gut wie alles als Grundlage für einen Computer dienen, seien es nun Quanten, DNA-Moleküle, Flüssigkeiten oder eben Lichtstrahlen.
Für Letztere hat der Informatiker in den vergangenen Jahren bereits Schaltungen entwickelt. »Grundsätzlich lässt sich mit optischen Schaltungen jeder beliebige Informationsverarbeitungsprozess durchführen«, sagt Drechsler. Ein voll einsatzfähiger Computer wäre also theoretisch denkbar, realistisch betrachtet wird die Funktionalität in absehbarer Zukunft aber eher in der Größenordnung eines Taschenrechners bleiben. So lasse sich vieles noch nicht in der gewünschten Robustheit und Qualität technisch umsetzen. Zudem müsse eine kommerzielle Anwendung ja auch kompakt und entsprechend kostengünstig sein. »Hier sind jetzt die Technologen am Zug«, sagt Drechsler.
Und die zeigen bereits, was sie alles können. Für den eingangs erwähnten Chip, der in einer internationalen Kooperation unter Beteiligung der Universität Münster entwickelt wurde, kamen den Forschern zufolge fast dieselben Fertigungsmethoden zum Einsatz, die auch in der Siliziumelektronik verwendet werden. Zur Demonstration realisierten die Wissenschaftler ein kleines neuronales Netz, das handgeschriebene Zahlen erkennen kann – eine klassische Übung des maschinellen Lernens. Zwar stehen am Anfang und am Ende der Mustererkennung herkömmliche, elektronische Verfahren, die zentrale Rechenoperation, die dabei immer und immer wieder ausgeführt werden muss, läuft aber optisch ab.
Erste Start-ups wollen optische Technologien vermarkten
Etwas vereinfacht ausgedrückt entspricht dabei das gezielte Abschwächen der Lichtstrahlen simplen Multiplikationen, ihre anschließende Vereinigung wirkt dagegen wie eine Addition. All das läuft gleichzeitig in verschiedenen Farben ab, während sich die Pulse mit Lichtgeschwindigkeit über den Chip bewegen. Wofür in der klassischen, elektronischen Datenverarbeitung immer wieder umständlich Daten zwischen Speicher und Prozessor hin- und hergeschoben werden müssen, das passiert auf dem optischen Chip also in einem einzigen Zeitschritt.
Während es sich bei dem Chip aus Münster noch um universitäre Forschung handelt, wittern erste Start-ups bereits die Chance auf kommerzielle Vermarktung optischer Technologien. So hat etwa das in Frankreich ansässige Unternehmen LightOn erst kürzlich den nach eigenen Angaben ersten photonischen Co-Prozessor für künstliche Intelligenz auf den Markt gebracht. Was Details zur Technologie und den ersten Kunden angeht, hält man sich dort aber noch ziemlich bedeckt. Ob Licht tatsächlich schon bereit ist, sich gegen die über Jahrzehnte hinweg optimierte Siliziumelektronik durchzusetzen, muss es also erst noch beweisen. Informatikexperte Drechsler zufolge ist es aber durchaus plausibel, dass optisches Rechnen zumindest für Spezialanwendungen bereits Vorteile bringen kann.