Fotostrecke

Technik zur Umgebungserkennung: Ansichten eines Autos

Foto: Nvidia

Künstliche Intelligenz in selbstfahrenden Autos Die Denksportwagen

Künstliche Intelligenz spielt beim autonomen Fahren eine zentrale Rolle: Das Auto der Zukunft wird vom Hersteller antrainiert - und wendet sein Wissen auf der Straße an. Doch das maschinelle Lernen hat seine Tücken.

Kürzlich stand Danny Shapiro auf dem Messegelände der CES in Las Vegas und schaute zu, wie ein Audi Q7 auf einem kleinen Parcours Runden drehte. Shapiro, Leiter des Automotive-Bereichs beim Chip-Hersteller Nvidia, wirkte unzufrieden. "Die Fensterscheiben müssen runter", rief er plötzlich.

War dem Fahrer des SUV zu heiß? Bestimmt nicht: Am Steuer des Audi saß niemand. Und genau das sollte jeder sehen. Also runter mit den Fensterscheiben. Shapiro wollte einen tiefen Einblick ins autonome Fahren geben.

Dass der Wagen von alleine fuhr, verblüffte viele Passanten. Noch spannender ist aber die Technologie, die hinter der fahrerlosen Vorführung steckt: Das Auto manövrierte durch den Parcours, indem es das Fahrverhalten von Menschen abspeicherte und dann nachahmte. Der Wagen gehorchte keinen Programmierbefehlen, sondern war durch Simulationen und Testfahrten antrainiert. Simpel ausgedrückt: Das Auto war in die Fahrschule gegangen - und zeigte in Las Vegas, was es gelernt hatte.

Ein Beispiel für die Funktionsweise: Dem Modul von Nvidia wurden Millionen von Bildern von Hindernissen gezeigt, also eingespeist. Anschließend wurde ihm erklärt - also durch Simulationen und in richtigen Fahrmanövern antrainiert -, dass man davor abbremst. Es merkte sich die Eingabesignale (die Hindernisse) und das gewünschte Ergebnis (Anhalten) - und war anschließend in der Lage, in ähnlichen Situationen selbstständig zu stoppen. Der Clou: Der Computer schafft diese Verknüpfungen von allein, ohne einen von Menschen geschaffenen Algorithmus.

Der selbstfahrende SUV im Video:

SPIEGEL ONLINE

Das mathematische Geflecht dahinter ist kompliziert, aber das Ergebnis ein Fortschritt bei der Entwicklung: Trainieren statt programmieren. Diese Methode wird als maschinelles Lernen oder Deep Learning bezeichnet. Dabei werden sogenannte neuronale Netze geschaffen, die wie ein menschliches Gehirn aufgebaut sind und Assoziationen zwischen der Umgebung des Autos und den daraus resultierenden Fahraufgaben herstellen. Der Oberbegriff dafür lautet künstliche Intelligenz (KI).

Als Passagier sitzt man also auf dem Rücksitz des Audi Q7, schaut zu, wie das Lenkrad sich von allein bewegt und der schwere SUV ohne zu stocken die Spur hält und Kurven fährt. Zweieinhalb Tonnen Auto, selbstfahrend, gelenkt von einer künstlichen Materie, selbstdenkend: Das ist ziemlich faszinierend - und gleichzeitig etwas unheimlich.

Fotostrecke

Technik zur Umgebungserkennung: Ansichten eines Autos

Foto: Nvidia

Um KI ist in der Tech-Branche ein Hype ausgebrochen. Ein bekannter Programmierer sagte auf der Digitalkonferenz DLD kürzlich, dass er in ihr die Lösung für sämtliche Probleme der Menschheit sieht. Dieser Fortschrittsglaube klingt größenwahnsinnig - aber zumindest die Autoindustrie scheint ihn zu teilen.

"Neuronale Netze sind ein Schlüssel, um die Herausforderungen beim autonomen Fahren zu bewältigen", sagt zum Beispiel Uwe Franke, der bei Daimler den Bereich Bildverstehen verantwortet.

"Hoppla, da tut sich was"

Was begeistert die Ingenieure an der künstlichen Intelligenz? Franke und sein Mitarbeiter Marius Cordts erklären es so: "Früher musste man am Computer zuerst ein Umgebungsmodell händisch gestalten, sodass das Auto sich darin richtig verhalten kann." Durch Deep Learning entfällt ein Teil des Programmierens: "Jetzt füttert man das System einfach mit Daten, zum Beispiel mit Bildern von Ampeln oder Bäumen, und erzielt so die gewünschte Umgebungserkennung."

Torsten Gollewski sieht im Deep Learning ebenfalls eine "Schlüsseltechnologie". Er leitet die Vorentwicklung bei dem deutschen Zulieferer ZF, der gerade eine Kooperation mit Nvidia verkündet hat. "Neuronale Netze können Ähnlichkeiten erkennen und darauf reagieren - wenn man dem System durch Simulationen lernt, wie beispielsweise eine Asphaltstraße zu erkennen ist. Das System sucht dann auch auf einer Schotterstraße nach Ähnlichkeiten und ist so in der Lage, auch diese zu bewältigen. Dieses Verhalten durch Programmierbefehle zu erzielen, wäre viel aufwendiger."

Wo Forscher vorher verzweifelten, erleichtern neuronale Netze jetzt die Arbeit am selbstfahrenden Auto. Welche Fortschritte dadurch möglich werden, verdeutlicht die Schilderung eines Branchenanalysten: "Ein deutscher Hersteller hat jahrelang mit einem Team von mehr als einem Dutzend Leuten durch konventionelle Algorithmen an der Verkehrszeichenerkennung gearbeitet", erzählt er. "Vor zwei Jahren hat ein einzelner Student dann im Rahmen seiner Masterarbeit mit Deep Learning die gleichen Ziele erreicht, und zwar innerhalb kürzester Zeit."

Damals, so der Analyst, habe man gemerkt: "Hoppla, da tut sich was."

Mehr Rechenleistung und Lernmaterial

Der Versuch, Autos durch neuronale Netze das Fahren beizubringen, ist eigentlich nicht neu: Bereits Anfang der Neunzigerjahre experimentierte der Robotik-Experte Dean Pomerleau mit diesem Ansatz. Der Prozessor in seinem autonom fahrenden Testwagen hatte allerdings die Größe eines Kühlschranks und benötigte einen 5000-Watt-Generator.

Empfohlener externer Inhalt
An dieser Stelle finden Sie einen externen Inhalt von Twitter, der den Artikel ergänzt und von der Redaktion empfohlen wird. Sie können ihn sich mit einem Klick anzeigen lassen und wieder ausblenden.
Externer Inhalt

Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit können personenbezogene Daten an Drittplattformen übermittelt werden. Mehr dazu in unserer Datenschutzerklärung.

Dass die Vorteile neuronaler Netze erst jetzt richtig ausgeschöpft werden können, hat vor allem zwei Gründe:

  • Die Datenbasis wächst ständig, es gibt sozusagen mehr Lernmaterial für die Autos: Sowohl komplexe Simulationsmodelle als auch Fotos von Schildern oder Gegenständen, die dem System eingespeist werden können.
  • Die Rechenleistung der Digitalplattformen ist rasant gestiegen. "Bei Grafikprozessoren, die zur Bilderkennung und -verarbeitung nötig sind, hat sich die Leistung zuletzt jährlich fast verdoppelt", sagt Daimler-Ingenieur Franke. Und als Tesla im vergangenen Oktober seinen neuen Autopiloten vorstellte, erklärte der kalifornische Elektroautohersteller stolz, das System habe jetzt eine 40-mal größere Rechenleistung als der alte Bordcomputer.

Vollstes Vertrauen in künstliche Intelligenz? Eher nicht

"Das Hirn des neuen Tesla-Autopiloten stammt von uns", sagt Nvidia-Manager Shapiro. Der Vergleich mit dem menschlichen Denkapparat ist zutreffend, allerdings lässt sich daran auch ein Problem von neuronalen Netzen festmachen. "Du benutzt dein Gehirn ständig, du vertraust ihm immer - und du hast keine Ahnung, wie es eigentlich funktioniert", erklärte der Deep-Learning-Experte und Computerwissenschaftler Pierre Baldi von der Universität von Kalifornien dem Fachmagazin "Nature".

Neuronale Netze sind nicht leicht zu entschlüsseln - und das wirf die Frage auf, wie ihre Verlässlichkeit beim Einsatz in Autos überprüft werden kann.

"Beim maschinellen Lernen gibt es keine Zeilencodes, die auf Fehler hin überprüft werden können", sagt Ilja Radusch, der beim Fraunhofer-Institut den Bereich Automotive Services and Communication Technologies leitet. "Ist die Software einmal antrainiert, entscheidet sie selbstständig, wie sie das Auto in einer bestimmten Situation steuert - deshalb ist es wichtig, diese Reaktionen zu testen."

Radusch glaubt, dass durch Simulationen eine Vielzahl von Fahrsituationen durchgespielt werden können. Aber das sei wiederum aufwändig, die Simulationen müssten schließlich programmiert werden. "Es ist unmöglich, jede Situation vorab zu testen", sagt Radusch, "und wenn sich herausstellt, dass ein hochautomatisiertes Fahrzeug einer bestimmten Situation nicht gewachsen ist, muss dieser Mangel bei allen betroffenen Autos behoben werden".

Ein Entwickler aus der Automobilindustrie, der sich mit der Technologie gut auskennt, pflichtet Radusch bei: "In die Absicherung der KI-Systeme muss man durchaus noch Arbeit stecken".

Bei den Herstellern ist man für diese Probleme sensibilisiert. "Wir sind der Ansicht, dass es neben Deep Learning auch weiterhin noch händisch programmierte Entscheidungen braucht, um das Auto so sicher wie möglich zu machen", sagt Uwe Franke von Daimler. Bei Audi äußert man sich ähnlich.

Irgendwann zwischen 2020 und 2030 sollen die ersten hochautomatisierten Autos in Serie gehen, auf ein genaues Jahr festlegen wollen sich da weder Mercedes, BMW, Volvo oder Ford, noch Uber oder Lyft oder Apple und Google. Fest steht, dass neuronale Netze beim Erreichen dieser Ziele eine wichtige Rolle spielen. Das Auto der Zukunft wird nur so gut fahren, wie der Mensch es trainiert.

Die Wiedergabe wurde unterbrochen.