Tödlicher Unfall in USA Wie gefährlich sind selbstfahrende Autos?

In den USA gab es den ersten tödlichen Unfall mit einem teilautonom fahrenden Auto, einem Tesla Model S. Zu dem Unglück stellen sich viele Fragen - hier finden Sie die Antworten.
Tesla Model S

Tesla Model S

Foto: © Noah Berger / Reuters/ REUTERS

Was genau ist bei dem Unfall passiert?

Bei einer Fahrt mit der Autopilotfunktion eines elektrischen Tesla Model S ist erstmals ein Fahrer tödlich verunglückt. Der Zusammenstoß des teilweise selbst fahrenden Autos mit einem Lkw ereignete sich am 7. Mai auf einem Highway in Florida und wurde erst jetzt durch eine Mitteilung von Tesla bekannt. Nun untersucht die US-Verkehrssicherheitsbehörde, ob das teilautomatisierte System bei dem Crash korrekt funktionierte. Laut NHTSA betrifft die vorläufige Untersuchung etwa 25.000 Tesla Model S des Modelljahres 2015.

Nach bisher übereinstimmenden Angaben von Tesla und der NHTSA geschah der tödliche Unfall an einer Kreuzung ohne Ampeln. Der Lkw-Fahrer kam von der Seite und kreuzte den Fahrweg des Tesla, dabei kollidierten die beiden miteinander. Der Tesla sei unter den Sattelschlepper-Anhänger gefahren, dabei habe dessen Unterkante die Windschutzscheibe getroffen.

Wie konnte es dazu kommen?

Laut Aussagen von Tesla konnten die Sensoren und die Kamera des Model S die weiße Seitenwand des kreuzenden Aufliegers nicht vom an dem Tag besonders hellen Himmel unterscheiden. Der Auflieger wurde nicht als Hindernis erkannt und entsprechend keine Vollbremsung aktiviert. Experten wundert das, denn gerade Radarsysteme müssten ein solches Hindernis einwandfrei erkennen und sind - anders als beispielsweise Kameras - nicht auf farbliche Kontraste angewiesen.

Vor allem die Kameras selbst fahrender Autos sind nämlich sonst auf eindeutigen optischen Input angewiesen. So werden zum Beispiel für die einwandfreie Funktion von Spurhaltesystemen gut erkennbare Fahrbahnmarkierungen vorausgesetzt. Schnee, aber bei Nacht auch schon Regen, kann die Sichtbarkeit von Mittel-, und Begrenzungsstreifen herabsetzen und das System untauglich machen.

Heißt das, die Technik ist schuld?

Nein, denn der Fahrer wird von Tesla ausdrücklich darauf hingewiesen, die Hände niemals vom Steuer zu nehmen und die Kontrolle und Verantwortung über das Fahrzeug zu behalten. Das besagt auch die aktuelle Gesetzgebung in Deutschland, die zwar Systeme erlaubt, mit denen ein Fahrzeug zeitweise autonom fährt. Allerdings nur, wenn diese vom Fahrer jederzeit übersteuert oder ausgeschaltet werden können.

Video: Tödlicher Unfall mit Tesla-Autopilot

SPIEGEL ONLINE

Wie funktioniert das System im Tesla Model S?

Tesla bietet sein "Autopilot" genanntes System für alle Fahrzeuge seit Oktober 2015 an, vorher ausgelieferte Fahrzeuge konnten das Feature per Softwareupdate nachrüsten. Mithilfe von Radarsensoren und Kameras hält der Autopilot Abstand zu vorausfahrenden Autos, bleibt in der Spur und kann - so etwas gab es bis dato nicht - auch eigenständig überholen, wenn der Fahrer den Überholvorgang durch zweimaliges Antippen des Blinkers aktiviert und durch ein kurzes Hand-ans-Lenkrad-Legen bestätigt. Tesla betont in seinem Statement zum Tod des Model-S-Fahrers ausdrücklich, dass die Autopilotfunktion von den Kunden bewusst aktiviert werden müsse und im Rahmen dieser Aktivierung auch darauf hingewiesen werde, dass bei der Nutzung der Funktion immer die Hände am Lenkrad liegen sollten. Weiter heißt es, dass bei jeder Nutzung im Alltag der Fahrer darauf hingewiesen werde, die Hände am Lenkrad zu lassen ("Always keep your hands on the wheel. Be prepared to take over at any time.") und dass das Fahrzeug regelmäßig Checks durchführen würde, ob die Hände tatsächlich am Steuer liegen. In zahlreichen Videos zum Thema "Tesla Autopilot" auf YouTube ist zu sehen, wie die Fahrer minutenlang die Hände vom Steuer nehmen und mitnichten aufgefordert werden, die Dinge wieder in die Hand zunehmen.

Wie sieht Tesla das?

Das offizielle Statement des Herstellers zur Hands-on-Frage:

"Es gibt eine maximale zeitliche Begrenzung der Dauer, in der die Tesla Automatiklenkung toleriert, dass sie keine differenziale Drehkraft erkennt, die darauf hinweist, dass sich menschliche Hände am Lenkrad befinden. Dabei ist zu beachten, dass die erforderliche differenziale Drehkraft keine lediglich passive Berührung voraussetzt, sondern vielmehr, dass durch festen Handkontakt eine differenziale Drehkraft von zumindest 0,29 Nm ausgeübt wird. Mithin stellt eine ausbleibende differenziale Drehkraft kein definitives Anzeichen für ein Loslassen des Lenkrades durch den Fahrer dar, da in vielen Fällen (z.B. bei geradem Straßenverlauf) die Hände des Fahrers keine differenziale Drehkraft ausüben, sofern nicht der Fahrer das Lenkrad zu der einen oder der anderen Seite zieht. Die zeitliche Dauer, in der die Tesla Automatiklenkung toleriert, dass keine differenziale Drehkraft erkannt wird, variiert in Abhängigkeit von den Fahrbedingungen."

Kann das mal bitte jemand übersetzen?

Ja. Die Erkennung, ob die Hände des Fahrers am Lenkrad liegen, erfolgt über Lenkbewegungen ("differenziale Drehkraft"). Einfaches Handanlegen reicht also nicht, sondern es muss tatsächlich gelenkt werden, und zwar mit einer Kraft von 0,29 Newtonmetern. Falls nicht gelenkt wird, heißt das aber nicht automatisch, dass die Hände nicht am Steuer liegen, denn, so argumentiert Tesla, auf gerader Straße, lenkt man ja nicht so kräftig. Wie lange der Tesla toleriert, dass man nicht lenkt, hängt von der Fahrsituation ab. Auf einer Autobahn kann es also durchaus sein, dass der Autopilot für lange Zeit zur Ansicht kommt, dass man die Hände vom Lenkrad lassen kann.

Worin unterscheidet sich das Tesla-System von denen deutscher Hersteller?

Die Hardware für das teilautomatisierte Fahren von Tesla unterscheidet sich von Konkurrenten nur kaum oder gar nicht. Auch die Funktionen ähneln sich. So bietet Mercedes in seinem Fahrerassistenz-System das sogenannte "Intelligent Drive" an, das unter anderem automatisch den Abstand zum Vordermann hält oder bei Gefahr autonom bremst. Die größten Unterschiede liegen vor allem in der Software. Tesla aktualisiert seine Fahrzeuge über Mobilfunk ("over the Air"), um neue Funktionen zu implementieren - das gilt auch für sicherheitsrelevante Technik wie den Autopilot.

Auch sonst gibt es Unterschiede, und zwar gravierende: Während beispielsweise Mercedes seine Fahrer nach wenigen Sekunden dazu auffordert, die Hände wieder ans Lenkrad zu nehmen, macht der Tesla das nur sehr punktuell - etwa dann, wenn der Autopilot erkennt, dass er an Grenzen stößt - wie bei schlechten Sichtverhältnissen.

Bei dem Tesla System handelt es sich um eine sogenannte Beta-Version. Was heißt das genau?

Der Begriff Beta-Version kommt aus der Softwareindustrie und bezeichnet ein Softwareprodukt, das noch nicht vollständig fertig gestellt ist und noch Fehler enthalten kann, aber trotzdem in den Markt eingeführt wird. Die Kunden, die das Produkt in der Beta-Version (oft zu einem reduzierten Preis oder ganz kostenlos) beziehen, fungieren dann sozusagen als Tester - und helfen mit ihrem Feedback, das Produkt fertigzustellen oder zu verbessern. Der Vorteil dieser Vorgehensweise sind größere Flexibilität und Geschwindigkeit bei der Einführung von Innovationen. So brachte Tesla beispielsweise seinen Autopilot deutlich vor den etablierten Herstellern auf den Markt, obwohl die technologisch mindestens auf dem gleichen Stand sind wie der Newcomer aus den USA.

Ist das in der Autoindustrie üblich?

Beta-Versionen, die ständig über Mobilfunk aktualisiert werden, sind derzeit noch eine Besonderheit von Tesla. Doch Peter Fintl von der Technologieberatung Altran ist sich sicher, dass regelmäßige Softwareupdates mit der zunehmenden Digitalisierung des Autos über eine sogenannte Cloud künftig in der Autoindustrie zum Standard werden. Erst einmal bei Infotainmentsystemen und nicht etwa bei Funktionen, die unmittelbar sicherheitsrelevant sind.

Wiegen solche Systeme den Fahrer in trügerischer Sicherheit?

Das lässt sich pauschal nicht sagen, da die Systeme unterschiedlich abgestuft zum Einsatz kommen. Tesla hat allerdings mit der Wahl des Namens "Autopilot" für das Feature einen Funktionsumfang suggeriert, den das System, darauf weist der Hersteller ja bei der Aktivierung hin, nicht einlösen kann. Ob die Kunden sich das wirklich vergegenwärtigen, darf bezweifelt werden. Vielmehr muss man hier eine weitere Parallele zur Softwareindustrie annehmen: Da liest auch kaum jemand die AGB, Lizenzvereinbarungen etc. - und gibt trotzdem an, sie gelesen und akzeptiert zu haben.

Wie ist der Stand der Technik beim automatisierten beziehungsweise autonomen Fahren?

Das teilautomatisierte Fahren, wie es derzeit im Model S oder in Fahrzeugen wie der Mercedes E-Klasse zum Einsatz kommt, bildet den Stand der Technik ab. So bieten Autohersteller beispielsweise automatische Einparksysteme an, Notbremsfunktionen oder Assistenten, die die Spur auf der Autobahn halten oder sogar wechseln. Allen Systemen gemein ist, dass sie die permanente Überwachung und notfalls den Eingriff des Fahrers erfordern.

Die deutsche Autoindustrie hat ein Fünf-Stufenmodell für das automatisierte Fahren entwickelt - vom komplett fahrergeführten Auto bis hin zum fahrerlosen Auto, das jeden menschlichen Eingriff unnötig macht. Derzeit befindet sich die Autoindustrie auf der zweiten Entwicklungsstufe.

Ist autonomes Fahren gefährlich?

Nein, im Gegenteil: Die ehrgeizigen Ziele zur Reduktion der Verkehrstoten lassen sich vermutlich nur durch autonomes Fahren erreichen. Menschliche Fahrer sind viel anfälliger für Fahrfehler, Beeinträchtigung durch Emotionen oder Fehleinschätzungen der Verkehrslage als Computer. Bei einer flächendeckenden Einführung des autonomen, vernetzten Fahrens ist entsprechend mit einer drastischen Senkung der Unfallzahlen zu rechnen.

Wird der Tesla-Unfall die weitere Entwicklung von Roboter-Autos beeinflussen?

Es schadet der Akzeptanz des autonomen Fahrens, dass der Unfall suggeriert, er sei durch ein autonom fahrendes Fahrzeug verursacht worden, ist sich Berater Fintl sicher. Doch das Tesla Model S fährt lediglich teilautomatisiert, der Fahrer muss jederzeit aufmerksam sein. Demnach könnte der Unfall auch sowohl auf menschliches Versagen oder auf eine Funktionsgrenze des Notfall-Bremsassistenten (AEB) zurückzuführen sein.