Tödlicher Unfall in den USA Tesla-Chef verteidigt den "Autopilot"

Nach dem tödlichen Unfall eines US-Amerikaners in einem computergesteuerten Model S kommt Tesla-Gründer Elon Musk in Erklärungsnot. Es geht um die genaue Bedeutung einer Software-Bezeichnung.

Elon Musk
DPA

Elon Musk


Elon Musk fühlt sich missverstanden, unter anderem vom vom Kraftfahrt-Bundesamt. Grund dafür ist das Wörtchen "Beta" im Zusammenhang mit der Autopilot-Software des Elektroautoherstellers. So wird in der IT-Branche meist noch nicht endgültig fertige Software genannt, die durch Tests besser werden soll. Tesla-Chef Musk erklärte auf Twitter, die "Autopilot"-Funktion sei keine unfertige Technik, obwohl sie mit der Bezeichnung "Beta" eingeführt wurde.

Laut Musks Auslegung meine "Beta" in diesem Fall, dass mit der "Autopilot"-Technologie noch nicht eine Milliarde Meilen (1,6 Milliarden Kilometer) unter echten Straßenbedingungen gefahren worden seien. "Es ist nicht Beta-Software im üblichen Sinn", schrieb er.

Bevor eine Milliarde Meilen gefahren seien, "sind einfach nicht genug Daten da". Die Technik sei zwar ausgiebig im Labor und mit Teslas Flotte von Testfahrzeugen ausprobiert worden. "Aber es gibt keinen Ersatz für Erfahrung aus der echten Welt." Musk rechnet damit, dass die Marke von einer Milliarde Meilen in rund einem halben Jahr erreicht werde.

Man habe auch zu dem Wort gegriffen, damit Fahrer es sich nicht zu bequem am Steuer machten, erläuterte Musk weiter: Das "Autopilot"-System sei mit der Bezeichnung "Beta" versehen worden, "um für die, die sich entscheiden, es zu nutzen, zu betonen, dass es nicht perfekt ist", schrieb Musk weiter.

Er reagierte damit auf die Zweifel des Kraftfahrt-Bundesamtes (KBA) an der Technologie unter Hinweis auf die "Beta"-Kennzeichnung. "Wenn mit der Bezeichnung 'Beta-Version' ein 'unfertiger' Stand der Software gemeint ist, würde das KBA eine Funktionalität mit einer derartigen Software nicht genehmigen", hatte ein Sprecher des Flensburger Amts der "Welt am Sonntag" gesagt.

Bei einem Unfall Anfang Mai war ein Tesla mit eingeschaltetem "Autopilot"-System unter einen Lastwagen-Anhänger gerast, der die Fahrbahn überquert hatte. Tesla erklärte, das System habe die weiße Seite des Anhängers für ein hochhängendes Autobahnschild gehalten. Der Fahrer des Tesla starb bei dem Crash.

Musks Wortklauberei kann nicht über ein Problem hinwegtäuschen

In der Debatte um die Auslegung des Begriffs "Beta" spiegelt sich nun ein Dilemma wider: Tesla hat seine Autos per Software-Update mit der komplexen "Autopilot"-Funktion ausgestattet - die Kunden mussten sich kein neues Fahrzeug kaufen, um in den Genuss der Fahrassistenzsysteme zu kommen; sie mussten nicht mal in eine Werkstatt. Diesen Service kannte man aus der IT-Branche, wo "Beta" zum Prinzip gehört und Produkte schnell und ständig verbessert werden. In der Autoindustrie dagegen gilt die Regel, dass Neueinführungen einen gewissen Grad an Perfektion erlangt haben müssen, um auf den Markt zu kommen und Produktzyklen deshalb in der Regel nicht unter fünf Jahre dauern. Unter Update verstanden die Autoingenieure eher ein Facelift, also die etwas aufgefrischte Variante eines Modells.

Im Fall von Tesla zeigt sich nun, wie riskant eine unkonventionelle Herangehensweise im Automobilbereich sein kann - und wie schnell Elon Musk von seinen markigen Sprüchen eingeholt wird. Ihm wird nach dem tödlichen Crash vorgeworfen, mit seinem "Autopilot" zu große Erwartungen bei seinen Anhängern geschürt zu haben. Was dazu führt, dass er nun im Nachhinein eine eigenwillige Definition von "Beta" nachschieben muss und an Glaubwürdigkeit einbüßt.

Sogar ein Zulieferer von Tesla kritisierte das "Autopilot"-System als nicht ausgereift. Der israelische Hersteller Mobileye, der Kameras an Tesla liefert, erklärte gegenüber der "Süddeutschen Zeitung", dass Mobileye-Systeme Situationen mit seitlich kreuzenden Fahrzeugen erst ab 2018 erkennen könnten.

Das Bundesverkehrsministerium lässt laut SPIEGEL-Informationen überprüfen, ob Tesla womöglich unerlaubt die Software am Fahrerassistenzsystem des Model S erweitert hat. Möglicherweise seien Funktionen aufgespielt worden, die im Rahmen der Typgenehmigung nicht auf ihre Sicherheit überprüft wurden. Dabei solle es sich um ein System handeln, das Überholvorgänge regelt. Bestätige sich der Verdacht, könnte die Typgenehmigung für dieses Modell erlöschen und die Wagen müssten stillgelegt werden.

"Tesla-Masterplan, Teil 2"

Tesla betonte zwar stets, "Autopilot" sei nur ein Fahrassistenzsystem und mache ein Model S oder X nicht zu einem komplett selbstfahrenden Auto. Deswegen fordert der Hersteller die Fahrer auf, den Überblick über die Verkehrslage zu behalten, um jederzeit eingreifen zu können. Zugleich war unter anderem auf zahlreichen Videos im Internet zu sehen, wie Fahrer auf das System vertrauten und ihm die Kontrolle überließen.

Nach dem Rückschlag und den vielen Rechtfertigungen will Musk nun offenbar wieder in die Offensive. Für die nächsten Tage hat er einen "Tesla-Masterplan, Teil 2" angekündigt. Im ersten Strategiepapier vor knapp zehn Jahren skizzierte er unter anderem die Modellpalette.

insgesamt 123 Beiträge
Alle Kommentare öffnen
Seite 1
muskat51 11.07.2016
1. Zitat aus dem Artikel:
... , dass Mobileye-Systeme Situationen mit seitlich kreuzenden Fahrzeugen erst ab 2018 erkennen könnten.... Und wie nennt man ein nicht-seitliches Kreuzen? Paralleles Kreuzen? Und wie programmiert man sowas? Und wer möchte von einer solchen Software kutschiert werden, wenn er die Wahrheit über ihre "besonderen Talente" (wie Behinderungen bei Menschen jetzt heißen) kennt?
zeichenkette 11.07.2016
2. Nur mal zur Klärung
Ein Autopilot in einem Flugzeug erkennt auch keine kreuzenden anderen Flugzeuge und setzt unbedingt voraus, dass ein Pilot am Steuer sitzt. Selbst umgangssprachlich ist "wie auf Autopilot" ein Ausdruck dafür, dass man unangemessen blind und stur unterwegs ist, und sicherlich nicht aufmerksam und reaktionsschnell. Und man soll sich nichts vormachen, jede komplexe Software ist immer Beta und niemals fertig oder perfekt. Menschen schon gar nicht.
justus65 11.07.2016
3. Feuer frei
Dann kan die große Schlacht zwischen religiösen Fanatikern und Ungläubigen ja los gehen. Das Problem ist, dass da zwei Welten aufeinander prallen (wie im Artikel gut dargestellt). In der Computer-Branche jagt man das Programm auf die Rechner und wenn es Probleme gbt, setzt man sich an die Lösug. In der Auto-Branche heißen Probleme nicht stundenlanges probieren, bis die Kiste wieder läuft, sondern Tote. Das muss in den Köpfen der Herren Musk und Co erst mal rein. Was man mit einem Softwareupdat einspielen kann, kann auch wieder löschen. Also Programm zurücksetzen und fertig. Vernünftig testen, und wenn alles funktioniert wieder aufspielen. Tesla soll daraus lernen, dass Autos was anderes sind als PCs auch wenn sie mittlerweile PC mit Rädern ähneln. as ändert aber nichts daran, dass Tesla eine interessante Idee hat, den Automarkt aufgemischt hat und gezeigt hat, dass es möglich ist, alltagstaugliche Elektroautos zu bauen, die keine fahrenden Verzichtserklärungen sind.
foren_freund 11.07.2016
4. Autot Pilot
um es vorweg zu nehmen: ich unterstütze absolut diese Entwicklung auf dem Atomobilsektor aber der Autor hat es in seinem, sehr guten Artikel, treffend formuliert: "mit seinem 'Autopilot' " ..."bei seinen Anhängern...". Wenn es sich um Tesla dreht scheint bei manchen Zeitgenossen, ebenso wie bei Apple, der IQ ins Bodenlose zu fallen. Klar weist Tesla darauf hin, dass es kein echter Autopilot ist aber allein schon bei der Wortwahl zeigt sich, dass man bewusst die Erwartungen schürt und die "Jünger" Musks übernehmen es kritiklos, weil es halt die Zukunft ist. Sie scheinen zu glauben, dass alles was er macht von Haus aus richtig ist. Ich bin der Meineung, wir müssen uns klar darüber sein, dass es trotz solcher Technologiene auch weiterhin Unfallopfer geben wird aber - trotz - und nicht wegen. Ein Autopilot kann vielleicht das Fahren abnehmen - aber nicht das Denken.
Lankoron 11.07.2016
5. Welche anderen Autos
mit einer solch niedrigen Unfallstatistik (1 tödlicher Unfall auf 200 Millionen Meilen) hat man denn aus dem verkehr gezogen bzw so besonders geprüft? Welches Modell hat denn überhaupt eine solche gute Statistik? Hier wird ein Fass aufgemacht, als würden sich die tödlichen Unfälle häufen, und das nach 10km Fahrleistung. Fakt ist doch: In erster Linie hat hier der Fahrer versagt, und nicht ein autonomes Unterstützungssystem. Bislang ist ja noch nicht mal klar, ob der Teslafahrer überhaupt den Unfall verursacht hat, oder ob nicht der kreuzende LKW schuld war. Und das KBA sollte sich lieber mal um die Abgaswerte der Autos kümmern....
Alle Kommentare öffnen
Seite 1
Diskussion geschlossen - lesen Sie die Beiträge! zum Forum...

© SPIEGEL ONLINE 2016
Alle Rechte vorbehalten
Vervielfältigung nur mit Genehmigung der SPIEGELnet GmbH


TOP
Die Homepage wurde aktualisiert. Jetzt aufrufen.
Hinweis nicht mehr anzeigen.