Tödlicher Unfall »Tesla befördert unverantwortliches Verhalten«

Ein Tesla prallt gegen einen Baum, zwei Menschen sind tot, laut Polizei saß niemand am Steuer: Der Unfall in Texas wirft neue Fragen zum autonomen Fahren auf. Der Hersteller trage Mitschuld, sagt KI-Experte Philipp Slusallek.
Ein Interview von Emil Nefzger
Nur noch Schrott: Zerstörter Tesla nach Unfall in The Woodlands, Texas am 17. April

Nur noch Schrott: Zerstörter Tesla nach Unfall in The Woodlands, Texas am 17. April

Foto: Scott J. Engle / REUTERS

SPIEGEL: Herr Slusallek, bei einem Unfall mit einem Tesla sind in den USA zwei Männer ums Leben gekommen, laut Polizei saß dabei jedoch niemand am Steuer. Wie ist ein solches Szenario möglich?

Slusallek: Das Auto fährt nicht von allein los, dieses Autonomielevel haben Fahrzeuge bei Tesla noch nicht. Deren Modelle haben zwar einen Parkpiloten, mit dem der Wagen allein fahren kann, allerdings nur sehr langsam und auf einem Parkplatz. Der Fahrer hat den Autopiloten höchstwahrscheinlich während der Fahrt eingeschaltet und sich dann auf den Rücksitz oder den Beifahrersitz gesetzt. So einen Fall gab es vor einigen Jahren schon mal. Das ist völlig leichtsinniges und mutwilliges Fehlverhalten.

SPIEGEL: Über den Vorfall ist noch nicht viel bekannt – wie lässt sich Missbrauch in teilautonom fahrenden Autos generell verhindern?

Slusallek: Indem der Wagen überprüft, dass jemand am Steuer sitzt und warnt, wenn man das Steuer längere Zeit nicht anfasst. Dafür gibt es zwei Arten von Sensoren: Berührungssensoren am Lenkrad, die sind etwas teurer. Günstiger und weiter verbreitet ist ein Kraftsensor. Der bemerkt, wenn ich das Lenkrad bewege oder die Hände darauf liegen. Es dauert aber eine Zeit, bis der Wagen die fehlenden Hände bemerkt. Dann schreitet er mit lauter werdenden Warntönen ein, wirklich gestoppt werden die Fahrzeuge erst spät.

SPIEGEL: Die Hände am Lenkrad zu haben, heißt aber nicht, dass man aufmerksam ist. Gleichzeitig kann man diese Systeme offenbar relativ einfach austricksen.

Slusallek: Ja, das verhindert zum Beispiel nicht, dass der Beifahrer statt des Fahrers die Hand auf dem Lenkrad hat.

SPIEGEL: Bemerkt ein teilautonom fahrender Wagen nicht, dass der Fahrersitz leer ist?

Slusallek: Viele Autos erkennen, ob sich jemand auf einem Sitz befindet, allerdings nicht immer auf dem Fahrersitz. Man geht eben davon aus, dass dort einfach jemand sitzt, oder sitzen muss. Diesen Mechanismus gibt es also im Gegensatz zum Gurtsensor teilweise nur auf dem Beifahrersitz, aber nicht zwingend auf dem Fahrersitz.

Immer auf dem Laufenden bleiben?

Fahrberichte, Analysen, aktuelle Nachrichten: So verpassen Sie keine Artikel aus der Rubrik Mobilität des SPIEGEL.

So aktivieren Sie Ihre Benachrichtigungen

SPIEGEL: Dieser Mechanismus ließe sich außerdem durch eine schwere Tasche austricksen. Wie kann man einen leeren Fahrersitz in jedem Fall verhindern?

Slusallek: Per Innenraumkamera, die den Fahrer beobachtet. Blickrichtung und Augenbewegungen kann man so heute schon sehr gut überwachen und erkennen, ob jemand müde oder unaufmerksam ist. Diese Systeme sind schwer auszutricksen, aber noch teurer und deshalb in vielen Autos nicht verbaut.

SPIEGEL: Ist die Ursache des Unfalls dann nicht doch ein Versäumnis Teslas?

Slusallek: Nein, zuerst ist das ein mutwilliges Handeln des Fahrers. Das Auto warnt, in allen Handbüchern steht, dass man jederzeit bereit sein muss, um einzugreifen. Tesla ist hier kein direkter Vorwurf zu machen, der Fahrer hat das leider geradezu herausgefordert. Trotzdem sehe ich Teslas Verhalten insgesamt kritisch.

SPIEGEL: Inwiefern?

Slusallek: Tesla wirbt mit selbstfahrenden Funktionen und nennt sie sogar Autopilot. Das impliziert für einen normalen Menschen, dass das Auto allein fahren kann. Dem ist aber nicht so. Das steht auch so im Handbuch, aber es schwingt mit, dass das Auto zu mehr in der Lage ist, als es tatsächlich kann. Tesla befördert unverantwortliches Verhalten. Das Unternehmen muss seine Kunden zu mehr Verantwortungsbewusstsein erziehen.

SPIEGEL: Das Handbuch liest man als Nutzer aber nicht unbedingt. Das gilt auch für Kunden anderer Hersteller.

Slusallek: Ja, viele Fahrer wissen gar nicht, wo die Grenzen solcher Systeme sind. Es gibt Spurhaltesysteme, die nur bis Tempo 130 funktionieren, andere erst ab 60 km/h, oder die in komplexen Situationen nicht funktionieren und deshalb beaufsichtigt werden müssen. Das muss ich als Fahrer aber wissen. Ansonsten wiegt mich das Auto so lange in Sicherheit, bis es in Grenzsituationen keinen Ausweg mehr weiß. Dann bereit zu sein, sofort zu reagieren, ist sehr schwierig. Die Zwischenschritte zum vollständig autonomen Fahren bergen viele Risiken, die mit besseren Systemen sogar größer werden, weil man sich noch stärker auf sie verlässt. Es gibt deshalb sogar Entwickler, die dafür argumentieren, die Zwischenschritte bis zum vollen autonomen Fahren auf öffentlichen Straßen zu überspringen.

SPIEGEL: Das dürfte kaum mehr möglich sein, angesichts der vielen Fahrzeuge, die dem Fahrer Aufgaben streckenweise abnehmen können. Warum ist es so schwer, die Augen einfach auf der Straße zu lassen?

Slusallek: Wir Menschen sind nicht gut darin, ein System zu beaufsichtigen, das gefühlt dauernd korrekt funktioniert. Wir lernen in dieser Situation schnell, dass nichts passiert, es langweilt uns, und wir werden unaufmerksam. Das ist eine natürliche Reaktion. Lokführer werden ausgebildet, die Aufmerksamkeit hochzuhalten und müssen regelmäßig einen Schalter drücken. Im Auto ist man sich der Gefahren der eigenen Unaufmerksamkeit oft nicht bewusst. Deshalb sind die Innenraumkameras so wichtig. Man muss kontrollieren, ob der Fahrer das Auto kontrolliert.

Anmerkung der Redaktion: Zwischenzeitlich hat sich Tesla zu dem Unfall geäußert und Angaben der Polizei widersprochen. Vorläufige Untersuchungen hätten ergeben, dass eine Autopilot-Funktion nicht aktiviert gewesen sei. Die Polizei hingegen hatte ermittelt, dass niemand am Steuer des Wagens gesessen hatte. Dazu hatte Tesla zunächst nicht Stellung genommen. Wir haben den Text angepasst.