Tödlicher Unfall in USA Wie gefährlich sind selbstfahrende Autos?

In den USA gab es den ersten tödlichen Unfall mit einem teilautonom fahrenden Auto, einem Tesla Model S. Zu dem Unglück stellen sich viele Fragen - hier finden Sie die Antworten.

Tesla Model S
REUTERS

Tesla Model S

Von und


Was genau ist bei dem Unfall passiert?

Bei einer Fahrt mit der Autopilotfunktion eines elektrischen Tesla Model S ist erstmals ein Fahrer tödlich verunglückt. Der Zusammenstoß des teilweise selbst fahrenden Autos mit einem Lkw ereignete sich am 7. Mai auf einem Highway in Florida und wurde erst jetzt durch eine Mitteilung von Tesla bekannt. Nun untersucht die US-Verkehrssicherheitsbehörde, ob das teilautomatisierte System bei dem Crash korrekt funktionierte. Laut NHTSA betrifft die vorläufige Untersuchung etwa 25.000 Tesla Model S des Modelljahres 2015.

Nach bisher übereinstimmenden Angaben von Tesla und der NHTSA geschah der tödliche Unfall an einer Kreuzung ohne Ampeln. Der Lkw-Fahrer kam von der Seite und kreuzte den Fahrweg des Tesla, dabei kollidierten die beiden miteinander. Der Tesla sei unter den Sattelschlepper-Anhänger gefahren, dabei habe dessen Unterkante die Windschutzscheibe getroffen.

Wie konnte es dazu kommen?

Laut Aussagen von Tesla konnten die Sensoren und die Kamera des Model S die weiße Seitenwand des kreuzenden Aufliegers nicht vom an dem Tag besonders hellen Himmel unterscheiden. Der Auflieger wurde nicht als Hindernis erkannt und entsprechend keine Vollbremsung aktiviert. Experten wundert das, denn gerade Radarsysteme müssten ein solches Hindernis einwandfrei erkennen und sind - anders als beispielsweise Kameras - nicht auf farbliche Kontraste angewiesen.

Vor allem die Kameras selbst fahrender Autos sind nämlich sonst auf eindeutigen optischen Input angewiesen. So werden zum Beispiel für die einwandfreie Funktion von Spurhaltesystemen gut erkennbare Fahrbahnmarkierungen vorausgesetzt. Schnee, aber bei Nacht auch schon Regen, kann die Sichtbarkeit von Mittel-, und Begrenzungsstreifen herabsetzen und das System untauglich machen.

Heißt das, die Technik ist schuld?

Nein, denn der Fahrer wird von Tesla ausdrücklich darauf hingewiesen, die Hände niemals vom Steuer zu nehmen und die Kontrolle und Verantwortung über das Fahrzeug zu behalten. Das besagt auch die aktuelle Gesetzgebung in Deutschland, die zwar Systeme erlaubt, mit denen ein Fahrzeug zeitweise autonom fährt. Allerdings nur, wenn diese vom Fahrer jederzeit übersteuert oder ausgeschaltet werden können.

Video: Tödlicher Unfall mit Tesla-Autopilot

REUTERS

Wie funktioniert das System im Tesla Model S?

Tesla bietet sein "Autopilot" genanntes System für alle Fahrzeuge seit Oktober 2015 an, vorher ausgelieferte Fahrzeuge konnten das Feature per Softwareupdate nachrüsten. Mithilfe von Radarsensoren und Kameras hält der Autopilot Abstand zu vorausfahrenden Autos, bleibt in der Spur und kann - so etwas gab es bis dato nicht - auch eigenständig überholen, wenn der Fahrer den Überholvorgang durch zweimaliges Antippen des Blinkers aktiviert und durch ein kurzes Hand-ans-Lenkrad-Legen bestätigt. Tesla betont in seinem Statement zum Tod des Model-S-Fahrers ausdrücklich, dass die Autopilotfunktion von den Kunden bewusst aktiviert werden müsse und im Rahmen dieser Aktivierung auch darauf hingewiesen werde, dass bei der Nutzung der Funktion immer die Hände am Lenkrad liegen sollten. Weiter heißt es, dass bei jeder Nutzung im Alltag der Fahrer darauf hingewiesen werde, die Hände am Lenkrad zu lassen ("Always keep your hands on the wheel. Be prepared to take over at any time.") und dass das Fahrzeug regelmäßig Checks durchführen würde, ob die Hände tatsächlich am Steuer liegen. In zahlreichen Videos zum Thema "Tesla Autopilot" auf YouTube ist zu sehen, wie die Fahrer minutenlang die Hände vom Steuer nehmen und mitnichten aufgefordert werden, die Dinge wieder in die Hand zunehmen.

Wie sieht Tesla das?

Das offizielle Statement des Herstellers zur Hands-on-Frage:

"Es gibt eine maximale zeitliche Begrenzung der Dauer, in der die Tesla Automatiklenkung toleriert, dass sie keine differenziale Drehkraft erkennt, die darauf hinweist, dass sich menschliche Hände am Lenkrad befinden. Dabei ist zu beachten, dass die erforderliche differenziale Drehkraft keine lediglich passive Berührung voraussetzt, sondern vielmehr, dass durch festen Handkontakt eine differenziale Drehkraft von zumindest 0,29 Nm ausgeübt wird. Mithin stellt eine ausbleibende differenziale Drehkraft kein definitives Anzeichen für ein Loslassen des Lenkrades durch den Fahrer dar, da in vielen Fällen (z.B. bei geradem Straßenverlauf) die Hände des Fahrers keine differenziale Drehkraft ausüben, sofern nicht der Fahrer das Lenkrad zu der einen oder der anderen Seite zieht. Die zeitliche Dauer, in der die Tesla Automatiklenkung toleriert, dass keine differenziale Drehkraft erkannt wird, variiert in Abhängigkeit von den Fahrbedingungen."

Kann das mal bitte jemand übersetzen?

Ja. Die Erkennung, ob die Hände des Fahrers am Lenkrad liegen, erfolgt über Lenkbewegungen ("differenziale Drehkraft"). Einfaches Handanlegen reicht also nicht, sondern es muss tatsächlich gelenkt werden, und zwar mit einer Kraft von 0,29 Newtonmetern. Falls nicht gelenkt wird, heißt das aber nicht automatisch, dass die Hände nicht am Steuer liegen, denn, so argumentiert Tesla, auf gerader Straße, lenkt man ja nicht so kräftig. Wie lange der Tesla toleriert, dass man nicht lenkt, hängt von der Fahrsituation ab. Auf einer Autobahn kann es also durchaus sein, dass der Autopilot für lange Zeit zur Ansicht kommt, dass man die Hände vom Lenkrad lassen kann.

Worin unterscheidet sich das Tesla-System von denen deutscher Hersteller?

Die Hardware für das teilautomatisierte Fahren von Tesla unterscheidet sich von Konkurrenten nur kaum oder gar nicht. Auch die Funktionen ähneln sich. So bietet Mercedes in seinem Fahrerassistenz-System das sogenannte "Intelligent Drive" an, das unter anderem automatisch den Abstand zum Vordermann hält oder bei Gefahr autonom bremst. Die größten Unterschiede liegen vor allem in der Software. Tesla aktualisiert seine Fahrzeuge über Mobilfunk ("over the Air"), um neue Funktionen zu implementieren - das gilt auch für sicherheitsrelevante Technik wie den Autopilot.

Auch sonst gibt es Unterschiede, und zwar gravierende: Während beispielsweise Mercedes seine Fahrer nach wenigen Sekunden dazu auffordert, die Hände wieder ans Lenkrad zu nehmen, macht der Tesla das nur sehr punktuell - etwa dann, wenn der Autopilot erkennt, dass er an Grenzen stößt - wie bei schlechten Sichtverhältnissen.

Bei dem Tesla System handelt es sich um eine sogenannte Beta-Version. Was heißt das genau?

Der Begriff Beta-Version kommt aus der Softwareindustrie und bezeichnet ein Softwareprodukt, das noch nicht vollständig fertig gestellt ist und noch Fehler enthalten kann, aber trotzdem in den Markt eingeführt wird. Die Kunden, die das Produkt in der Beta-Version (oft zu einem reduzierten Preis oder ganz kostenlos) beziehen, fungieren dann sozusagen als Tester - und helfen mit ihrem Feedback, das Produkt fertigzustellen oder zu verbessern. Der Vorteil dieser Vorgehensweise sind größere Flexibilität und Geschwindigkeit bei der Einführung von Innovationen. So brachte Tesla beispielsweise seinen Autopilot deutlich vor den etablierten Herstellern auf den Markt, obwohl die technologisch mindestens auf dem gleichen Stand sind wie der Newcomer aus den USA.

Ist das in der Autoindustrie üblich?

Beta-Versionen, die ständig über Mobilfunk aktualisiert werden, sind derzeit noch eine Besonderheit von Tesla. Doch Peter Fintl von der Technologieberatung Altran ist sich sicher, dass regelmäßige Softwareupdates mit der zunehmenden Digitalisierung des Autos über eine sogenannte Cloud künftig in der Autoindustrie zum Standard werden. Erst einmal bei Infotainmentsystemen und nicht etwa bei Funktionen, die unmittelbar sicherheitsrelevant sind.

Wiegen solche Systeme den Fahrer in trügerischer Sicherheit?

Das lässt sich pauschal nicht sagen, da die Systeme unterschiedlich abgestuft zum Einsatz kommen. Tesla hat allerdings mit der Wahl des Namens "Autopilot" für das Feature einen Funktionsumfang suggeriert, den das System, darauf weist der Hersteller ja bei der Aktivierung hin, nicht einlösen kann. Ob die Kunden sich das wirklich vergegenwärtigen, darf bezweifelt werden. Vielmehr muss man hier eine weitere Parallele zur Softwareindustrie annehmen: Da liest auch kaum jemand die AGB, Lizenzvereinbarungen etc. - und gibt trotzdem an, sie gelesen und akzeptiert zu haben.

Wie ist der Stand der Technik beim automatisierten beziehungsweise autonomen Fahren?

Das teilautomatisierte Fahren, wie es derzeit im Model S oder in Fahrzeugen wie der Mercedes E-Klasse zum Einsatz kommt, bildet den Stand der Technik ab. So bieten Autohersteller beispielsweise automatische Einparksysteme an, Notbremsfunktionen oder Assistenten, die die Spur auf der Autobahn halten oder sogar wechseln. Allen Systemen gemein ist, dass sie die permanente Überwachung und notfalls den Eingriff des Fahrers erfordern.

Die deutsche Autoindustrie hat ein Fünf-Stufenmodell für das automatisierte Fahren entwickelt - vom komplett fahrergeführten Auto bis hin zum fahrerlosen Auto, das jeden menschlichen Eingriff unnötig macht. Derzeit befindet sich die Autoindustrie auf der zweiten Entwicklungsstufe.

Ist autonomes Fahren gefährlich?

Nein, im Gegenteil: Die ehrgeizigen Ziele zur Reduktion der Verkehrstoten lassen sich vermutlich nur durch autonomes Fahren erreichen. Menschliche Fahrer sind viel anfälliger für Fahrfehler, Beeinträchtigung durch Emotionen oder Fehleinschätzungen der Verkehrslage als Computer. Bei einer flächendeckenden Einführung des autonomen, vernetzten Fahrens ist entsprechend mit einer drastischen Senkung der Unfallzahlen zu rechnen.

Wird der Tesla-Unfall die weitere Entwicklung von Roboter-Autos beeinflussen?

Es schadet der Akzeptanz des autonomen Fahrens, dass der Unfall suggeriert, er sei durch ein autonom fahrendes Fahrzeug verursacht worden, ist sich Berater Fintl sicher. Doch das Tesla Model S fährt lediglich teilautomatisiert, der Fahrer muss jederzeit aufmerksam sein. Demnach könnte der Unfall auch sowohl auf menschliches Versagen oder auf eine Funktionsgrenze des Notfall-Bremsassistenten (AEB) zurückzuführen sein.



insgesamt 105 Beiträge
Alle Kommentare öffnen
Seite 1
jogola 01.07.2016
1. Solche Beta-Versionen
und frühere Entwicklungsstadien sollen und werden auf öffentlichen Straßen getestet. Wehe wenn sie losgelassen! Hinter dem Lenkrad sitzt immer jemand, der an die Technik glaubt.
kalim.karemi 01.07.2016
2. tragisch
andererseits stellt sich nach Millionen Autopilotkilometern auch die Frage, wieviel Leben hat der Autopilot in dieser Zeit gerettet. Sobald ein Hai einen Surfer verspeist, wir die ganze Population ins schlechte Licht gerückt. Fakten und Wahrnehmung sind verschiede Paar Schuhe.
hightoy 01.07.2016
3. Zum Glück
Zum Glück verursachen menschliche Fahrer nie Unfälle, fahren nie zu schnell, nie betrunken und liefern sich nie Rennen. Warum sollte man da noch Maschinen die Verantwortung überlassen?
taglöhner 01.07.2016
4. Nota bene
Zitat von jogolaund frühere Entwicklungsstadien sollen und werden auf öffentlichen Straßen getestet. Wehe wenn sie losgelassen! Hinter dem Lenkrad sitzt immer jemand, der an die Technik glaubt.
Jeder Führerscheinabsolvent ist die Beta-Version eines sicheren Fahrers und bleibt es zeitlebens.
benutzername_optional 01.07.2016
5. einseitige reportagen
schade, dass nur bei einem Unfall etwas berichtet wird, aber nicht wie oft das System einen möglichen tödlichen Unfall verhindert hat. Der Normalbürger reagiert auf Schlagzeilen (tödlicher Unfall selbstfahrender autos) und interessiert sich nicht für die Thematik. Die generelle Meinung wird somit gebildet.
Alle Kommentare öffnen
Seite 1
Diskussion geschlossen - lesen Sie die Beiträge! zum Forum...

© SPIEGEL ONLINE 2016
Alle Rechte vorbehalten
Vervielfältigung nur mit Genehmigung der SPIEGELnet GmbH


TOP
Die Homepage wurde aktualisiert. Jetzt aufrufen.
Hinweis nicht mehr anzeigen.