Unfall mit selbstfahrendem Auto "Das Problem ist Uber"

Ein Roboterauto erfasst und tötet nachts eine Fußgängerin - ohne auf die Frau zu reagieren. Lag es an den Sensoren? Nein, erklärt Raul Rojas, Professor für Informatik an der Freien Universität Berlin.

Ein autonomes Uber-Auto.
AFP

Ein autonomes Uber-Auto.

Ein Interview von


Selbstfahrende Autos versprechen vor allem eins: Mehr Sicherheit. Ihre Systeme erkennen Fußgänger, Fahrradfahrer und andere Autos lange vor dem menschlichen Auge und sollen so Unfälle verhindern. Trotzdem hat ein Roboterwagen des Fahrdienstleisters Uber in Arizona eine Fußgängerin erfasst und getötet, ohne überhaupt zu bremsen oder auszuweichen. Die örtliche Polizei erklärte kurz nach dem Unfall, Uber sei womöglich schuldlos und auch ein menschlicher Fahrer hätte das Unglück nicht verhindern können. Schuld daran sei auch die Dunkelheit. Das sieht Raúl Rojas, der an der Freien Universität Berlin selbst autonome Fahrzeuge entwickelt, ganz anders.

SPIEGEL ONLINE: Die meisten autonom fahrenden Prototypen verwenden ein sogenanntes Lidar-System, um auch weit entfernte Fußgänger und Hindernisse zu erkennen. Auch die Fahrzeuge von Uber. Funktionieren Lidar-Systeme nicht im Dunkeln?

Raúl Rojas: Doch, sie funktionieren dann sogar am besten. Das System arbeitet mit Infrarotstrahlen, die von der Umgebung reflektiert werden, ähnlich einem Radar. Das Sonnenlicht enthält auch Infrarotstrahlung und stört Lidar-Systeme dadurch minimal, deswegen sind die Bedingungen nachts für diese Laserscanner optimal. Die Reichweite dieser neuen Systeme ist phänomenal, sie erkennen Hindernisse über mindestens hundert Meter Entfernung. Ein Ausfall dieser Sensoren kommt fast nie vor, das sind industrielle Bauteile, die an sich sehr zuverlässig sind. Wir benutzen sie auch bei unseren Autos und ich habe noch nie erlebt, dass so ein System ausfällt.

Zur Person
    Raúl Rojas ist Professor für Informatik und Leiter des Dahlem Center for Machine Learning and Robotics an der Freien Universität Berlin. Dort entwickelt er auch autonome Fahrzeuge.

SPIEGEL ONLINE: Wie kam es dann zu diesem Unfall?

Rojas: Aus dem Video, das die Polizei von Tempe veröffentlicht hat, wird klar, dass das Auto die Fußgängerin gar nicht erkannt hat. Der Wagen fährt ungebremst weiter, auch als die Frau im Bild erscheint. Selbst wenn das Lidar ausgefallen war, hätte der Computer allein aufgrund der Daten aus dem Videosystem bremsen müssen, und das ist nicht passiert. Ich gehe davon aus, dass das System zusammengebrochen war. Die Eingangsdaten waren zwar vorhanden, wurden aber vom Computer nicht ausgewertet.

SPIEGEL ONLINE: Welches System hat dann den Unfall verschuldet?

Rojas: Die Programmierung hat versagt. Ich nehme an, dass die Sensoren alle aktiv waren, aber die Software die Daten nicht verarbeitet hat und das Auto deshalb nicht einmal versucht, abzubremsen. Ein Mensch hätte in diesem Fall immerhin den Bremsvorgang eingeleitet oder noch versucht, der Frau auszuweichen.

SPIEGEL ONLINE: Es war doch eine Sicherheitsfahrerin von Uber an Bord.

Rojas: Ja, und hier beginnt eine Kette von Fehlern. Diese Fahrerin muss aufmerksam sein und darauf achten, was der Computer tut, um im Zweifelsfall eingreifen zu können. In diesem Fall hätte die Sicherheitsfahrerin, die im Unfallfahrzeug saß, bremsen sollen. Im Video sieht man aber, dass sie abgelenkt war und ihren Job nicht erledigt hat. Dadurch fehlt die Notfallinstanz. Wenn das Auto einen menschlichen Aufpasser braucht, sollte man außerdem nicht nachts testen. Zwar sehen die Sensoren dann besser, aber die Rückfalloption, der Fahrer, eben nicht. Das nächste Problem ist Uber. Die Firma geht bei ihrer Entwicklung sehr aggressiv vor. Sie testet nicht besonders lang, sondern schickt die Autos sofort auf die Straße.

SPIEGEL ONLINE: Macht die Konkurrenz das anders?

Rojas: Das sieht man sehr gut im Vergleich zu Google. Die Firma arbeitet schon länger an der Technologie und hat am Anfang auf ein sehr leichtes und ziemlich langsames Auto gesetzt, das eine Person bei einem Unfall sicher nicht getötet hätte. Damit ist Google fast drei Jahre gefahren, bevor man auf größere Autos umgestiegen ist. Sich Zeit zu nehmen und ausgiebig zu testen ist der richtige Weg, damit man keine Menschen gefährdet. Daran hält sich Uber überhaupt nicht.

SPIEGEL ONLINE: Ist der Unfall des Uber-Autos ein großer Rückschlag für die ganze Branche?

Rojas: Das ist vor allem ein großer Rückschlag für Uber. Diese Firma interessiert sich relativ wenig für Gesetze, die Leute dort sehen sich als Macher, ohne groß zu philosophieren. Es ist nicht der erste Zwischenfall mit autonomen Autos der Firma, letztes Jahr hat eines ihrer Autos klar eine rote Ampel übersehen, die Programmierung ist in vielen Teilen nicht reif für den Straßenverkehr. Uber bringt damit das autonome Fahren in Verruf. Die Menschen müssen sich an diese Technologie erst gewöhnen, man muss Akzeptanz aufbauen. Dabei muss man sehr behutsam vorgehen und kann nicht einfach ohne Rücksicht auf die Gesellschaft wichtige Etappen überspringen. Durch solche Unfälle kriegen die Menschen Angst vor autonomen Fahrzeugen.

SPIEGEL ONLINE: Was müssen die Hersteller tun, um solche Unfälle zu verhindern?

Rojas: Es müssen Redundanzketten wie in der Luftfahrt eingebaut werden, das heißt, es muss immer ein System geben, das im Notfall übernehmen kann. In der Luftfahrt ist das Standard, bei autonomen Autos ist das entscheidend, um die Sicherheit zu garantieren, die Leute sind ja irgendwann nur noch Passagiere. Und die Firmen müssen behutsamer testen. Das sieht man gut am Unterschied zwischen Europa und den USA. Hierzulande testen die Hersteller zuerst ausgiebig auf Teststrecken und sind sehr vorsichtig, ohne viel Wirbel zu machen. In den USA tobt der Kampf zwischen Disruptionsfirmen wie Uber und der klassischen Autoindustrie. Manche dieser neuen Player sind nicht so gewissenhaft und schaffen dadurch die Gefahr, dass solche Unfälle passieren.

SPIEGEL ONLINE: Wie können die Entwickler ein Versagen der Software in Zukunft verhindern?

Rojas: Der Hauptrechner kriegt Daten von den Sensoren, und hier muss man ansetzen. Ein Teil der Software muss überwachen, wie viele Datenpakete die Sensoren liefern. Kommt hier plötzlich nichts mehr, muss die Software warnen und auf ein redundantes System wechseln. Diese Überwachung muss einprogrammiert sein. Darüber muss es noch eine Überwachungsinstanz geben, die mit eigenen Sensoren prüft, ob genügend Systeme aktiv sind und deren Daten auch verarbeitet werden - wenn nicht, muss sie das Auto selbstständig am Straßenrand abstellen.



insgesamt 98 Beiträge
Alle Kommentare öffnen
Seite 1
hileute 23.03.2018
1. Falls die situation im Fahrzeug genauso war wie im video
hätte die Fahrerin auch wenn sie auf den Verkehr geachtet hätte weder ausweichen noch merkbar abbremsen können. Die Fußgängerin kam ja geradezu aus dem Nichts, allerdings hätte sie das Fahrzeug eigentlich sehen müssen, es war ja kein Verkehr auf der Straße
A. Merkel 23.03.2018
2. mal wieder: Unfall mit selbstfahrendem Auto
Was ist das neue an dieser Meldung ? Die selbstfahrenden Autos von Tesla haben doch auch schon einige Menschen getötet und dürfen trotzdem in Deutschland verkauft, zugelassen und gefahren werden. Der Bundesregierung und speziell dem CSU-Verkehrsminister sind diese Opfer völlig egal.
spon-facebook-10000132861 23.03.2018
3. tja. das hab ich mir auch gedacht.
Ein menschlicher Fahrer hätte das nicht vermeiden können. Die Lidars aber schon. Ich verstehe nicht, warum es immer noch keine Nothaltefunktionen gibt, das ist doch das Rrste was entwickelt werden müsste! Watchdog erkennt Systemprobleme, Scanner ausgefallen, unklare Situation, Platzregen: Vorsichtig rechts ran und stehen bleiben. So macht das jeder Mensch, aber auch Tesla nicht, da wird ein LKW schon mal als Schild "interpretiert", anstatt zu sagen: unklare Erkennung: Nothalt. Bei meinem Passat mit ACC und Lenkassistent war ich positiv überrascht: Keine Fahrerrückmeldung: Nach lautem Piepsen kurzes ruppiges Anbremsen mehrfach (um Schlafende aufzuwecken), falls immer noch keine Reaktion stärker, dann langsames Abbremsen bis zu Stillstand und Warnblinker an. Göttlich für Leute die am Lenkrad einschlafen oder einen Infarkt kriegen. So sollte es immer laufen! wenn solche funktionen stabil laufen dann kann man entwickeln.
neurobi 24.03.2018
4.
"Diese Firma interessiert sich relativ wenig für Gesetze, die Leute dort sehen sich als Macher, ohne groß zu philosophieren." Genau so ist es. Und genau darum wäre es gut wenn diese Firma so schnell wie möglich von der Bildfläche verschwindet. Und es würde vieleicht auch generell dabei helfen, dass wieder richtige Unternehmen (ausserhalb Kaliforniens) und seriöse Finanzierungen nach vorn kommen.
gandhiforever 24.03.2018
5. Wenn dem so ist
Wenn dem so ist, wie der Prof. es darstellt, dann hat Uber ein grosses Problem (ebenso die abgelenkte Beifahrerin). Dieser Frau, sollte sie gut instruiert worden sein, haette auffallen muessen, dass da etwas nicht stimmt. Sie haette die Kontrolle schon frueher uebernehmen muessen.
Alle Kommentare öffnen
Seite 1
Diskussion geschlossen - lesen Sie die Beiträge! zum Forum...

© SPIEGEL ONLINE 2018
Alle Rechte vorbehalten
Vervielfältigung nur mit Genehmigung der SPIEGELnet GmbH


TOP
Die Homepage wurde aktualisiert. Jetzt aufrufen.
Hinweis nicht mehr anzeigen.