Unfall mit selbstfahrendem Auto "Das Problem ist Uber"

Ein Roboterauto erfasst und tötet nachts eine Fußgängerin - ohne auf die Frau zu reagieren. Lag es an den Sensoren? Nein, erklärt Raul Rojas, Professor für Informatik an der Freien Universität Berlin.
Ein autonomes Uber-Auto.

Ein autonomes Uber-Auto.

Foto: ANGELO MERENDINO/ AFP

Selbstfahrende Autos versprechen vor allem eins: Mehr Sicherheit. Ihre Systeme erkennen Fußgänger, Fahrradfahrer und andere Autos lange vor dem menschlichen Auge und sollen so Unfälle verhindern. Trotzdem hat ein Roboterwagen des Fahrdienstleisters Uber in Arizona eine Fußgängerin erfasst und getötet, ohne überhaupt zu bremsen oder auszuweichen. Die örtliche Polizei erklärte kurz nach dem Unfall, Uber sei womöglich schuldlos und auch ein menschlicher Fahrer hätte das Unglück nicht verhindern können. Schuld daran sei auch die Dunkelheit. Das sieht Raúl Rojas, der an der Freien Universität Berlin selbst autonome Fahrzeuge entwickelt, ganz anders.

SPIEGEL ONLINE: Die meisten autonom fahrenden Prototypen verwenden ein sogenanntes Lidar-System, um auch weit entfernte Fußgänger und Hindernisse zu erkennen. Auch die Fahrzeuge von Uber. Funktionieren Lidar-Systeme nicht im Dunkeln?

Raúl Rojas: Doch, sie funktionieren dann sogar am besten. Das System arbeitet mit Infrarotstrahlen, die von der Umgebung reflektiert werden, ähnlich einem Radar. Das Sonnenlicht enthält auch Infrarotstrahlung und stört Lidar-Systeme dadurch minimal, deswegen sind die Bedingungen nachts für diese Laserscanner optimal. Die Reichweite dieser neuen Systeme ist phänomenal, sie erkennen Hindernisse über mindestens hundert Meter Entfernung. Ein Ausfall dieser Sensoren kommt fast nie vor, das sind industrielle Bauteile, die an sich sehr zuverlässig sind. Wir benutzen sie auch bei unseren Autos und ich habe noch nie erlebt, dass so ein System ausfällt.

Zur Person

Raúl Rojas ist Professor für Informatik und Leiter des Dahlem Center for Machine Learning and Robotics an der Freien Universität Berlin. Dort entwickelt er auch autonome Fahrzeuge.

SPIEGEL ONLINE: Wie kam es dann zu diesem Unfall?

Rojas: Aus dem Video, das die Polizei von Tempe veröffentlicht hat, wird klar, dass das Auto die Fußgängerin gar nicht erkannt hat. Der Wagen fährt ungebremst weiter, auch als die Frau im Bild erscheint. Selbst wenn das Lidar ausgefallen war, hätte der Computer allein aufgrund der Daten aus dem Videosystem bremsen müssen, und das ist nicht passiert. Ich gehe davon aus, dass das System zusammengebrochen war. Die Eingangsdaten waren zwar vorhanden, wurden aber vom Computer nicht ausgewertet.

SPIEGEL ONLINE: Welches System hat dann den Unfall verschuldet?

Rojas: Die Programmierung hat versagt. Ich nehme an, dass die Sensoren alle aktiv waren, aber die Software die Daten nicht verarbeitet hat und das Auto deshalb nicht einmal versucht, abzubremsen. Ein Mensch hätte in diesem Fall immerhin den Bremsvorgang eingeleitet oder noch versucht, der Frau auszuweichen.

SPIEGEL ONLINE: Es war doch eine Sicherheitsfahrerin von Uber an Bord.

Rojas: Ja, und hier beginnt eine Kette von Fehlern. Diese Fahrerin muss aufmerksam sein und darauf achten, was der Computer tut, um im Zweifelsfall eingreifen zu können. In diesem Fall hätte die Sicherheitsfahrerin, die im Unfallfahrzeug saß, bremsen sollen. Im Video sieht man aber, dass sie abgelenkt war und ihren Job nicht erledigt hat. Dadurch fehlt die Notfallinstanz. Wenn das Auto einen menschlichen Aufpasser braucht, sollte man außerdem nicht nachts testen. Zwar sehen die Sensoren dann besser, aber die Rückfalloption, der Fahrer, eben nicht. Das nächste Problem ist Uber. Die Firma geht bei ihrer Entwicklung sehr aggressiv vor. Sie testet nicht besonders lang, sondern schickt die Autos sofort auf die Straße.

SPIEGEL ONLINE: Macht die Konkurrenz das anders?

Rojas: Das sieht man sehr gut im Vergleich zu Google. Die Firma arbeitet schon länger an der Technologie und hat am Anfang auf ein sehr leichtes und ziemlich langsames Auto gesetzt, das eine Person bei einem Unfall sicher nicht getötet hätte. Damit ist Google fast drei Jahre gefahren, bevor man auf größere Autos umgestiegen ist. Sich Zeit zu nehmen und ausgiebig zu testen ist der richtige Weg, damit man keine Menschen gefährdet. Daran hält sich Uber überhaupt nicht.

SPIEGEL ONLINE: Ist der Unfall des Uber-Autos ein großer Rückschlag für die ganze Branche?

Rojas: Das ist vor allem ein großer Rückschlag für Uber. Diese Firma interessiert sich relativ wenig für Gesetze, die Leute dort sehen sich als Macher, ohne groß zu philosophieren. Es ist nicht der erste Zwischenfall mit autonomen Autos der Firma, letztes Jahr hat eines ihrer Autos klar eine rote Ampel übersehen , die Programmierung ist in vielen Teilen nicht reif für den Straßenverkehr. Uber bringt damit das autonome Fahren in Verruf. Die Menschen müssen sich an diese Technologie erst gewöhnen, man muss Akzeptanz aufbauen. Dabei muss man sehr behutsam vorgehen und kann nicht einfach ohne Rücksicht auf die Gesellschaft wichtige Etappen überspringen. Durch solche Unfälle kriegen die Menschen Angst vor autonomen Fahrzeugen.

SPIEGEL ONLINE: Was müssen die Hersteller tun, um solche Unfälle zu verhindern?

Rojas: Es müssen Redundanzketten wie in der Luftfahrt eingebaut werden, das heißt, es muss immer ein System geben, das im Notfall übernehmen kann. In der Luftfahrt ist das Standard, bei autonomen Autos ist das entscheidend, um die Sicherheit zu garantieren, die Leute sind ja irgendwann nur noch Passagiere. Und die Firmen müssen behutsamer testen. Das sieht man gut am Unterschied zwischen Europa und den USA. Hierzulande testen die Hersteller zuerst ausgiebig auf Teststrecken und sind sehr vorsichtig, ohne viel Wirbel zu machen. In den USA tobt der Kampf zwischen Disruptionsfirmen wie Uber und der klassischen Autoindustrie. Manche dieser neuen Player sind nicht so gewissenhaft und schaffen dadurch die Gefahr, dass solche Unfälle passieren.

SPIEGEL ONLINE: Wie können die Entwickler ein Versagen der Software in Zukunft verhindern?

Rojas: Der Hauptrechner kriegt Daten von den Sensoren, und hier muss man ansetzen. Ein Teil der Software muss überwachen, wie viele Datenpakete die Sensoren liefern. Kommt hier plötzlich nichts mehr, muss die Software warnen und auf ein redundantes System wechseln. Diese Überwachung muss einprogrammiert sein. Darüber muss es noch eine Überwachungsinstanz geben, die mit eigenen Sensoren prüft, ob genügend Systeme aktiv sind und deren Daten auch verarbeitet werden - wenn nicht, muss sie das Auto selbstständig am Straßenrand abstellen.

Die Wiedergabe wurde unterbrochen.