Forum: Auto
Verkehrsgerichtstag: Unfälle mit selbstfahrenden Autos - müssen Programmierer ins Gef
Zoox

Für Unfälle mit selbstfahrenden Autos sollen nicht die Insassen verantwortlich gemacht werden - darauf pochen Experten auf dem Verkehrsgerichtstag. Große Probleme könnten dagegen die Programmierer bekommen.

Seite 4 von 8
Stäffelesrutscher 24.01.2019, 22:18
30.

Zitat von cervo
Wer wird im Fall eines Konflikts geopfert? Die Oma, der Radfahrer oder das Kind? Ethisch fragwürdige Programmierungen werden uns beschäftigen.
Die Programmierung ist in dem Moment fragwürdig, in dem dieser Konflikt überhaupt entsteht:
Welchen Abstand zur Bordsteinkante muss das Auto einhalten, wenn da eine Oma entlangwackelt?
Welcher Überholabstand wird einprogrammiert? (Kleiner Hinweis: die gegenwärtig meistens gefahrenen 60 cm werden es nicht sein; eher 1,5 bis 2 m, und im Zweifelsfall wird das Roboterauto überhaupt nicht überholen.)
Welche Geschwindigkeit wird ein Roboterauto maximal fahren, wenn da ein Schild mit »30« oder »Schule« oder »Vorsicht Kinder« am Straßenrand steht? (Kleiner Hinweis: deutlich unter den gegenwärtig üblichen 40 km/h.) Oder wenn Kinder auf dem Gehweg herumrennen?

Beitrag melden Antworten / Zitieren
nachtmacher 24.01.2019, 22:26
31. tja...Tesla

Zitat von Bernd.Brincken
Ja, davon kann Herr Musk gern nachts träumen: Halbgare Produkte mit großspurigen Reden und viel Medien-Getrommel in die Welt entlassen - und niemand trägt irgendeine Verantwortung bei tödlichen Fehlern. Wirklich autonomes Fahren funktioniert heute bestenfalls auf fehlerfreien Fahrbahnen und bei gutem Wetter. In der EU trifft ersteres schon auf die Mehrheit der Straßen nicht zu. Es wird Zeit für eine (EU- oder ISO-) Norm für solche Techniken, damit der Kunde genau weiss, was er /nicht kriegt. So oder so muss es bei der Gewährleistungs-Haftung bleiben. Kann doch nicht sein, dass der Hersteller für einen brennenden Akkuschrauber - zu recht - haftet, aber ein Auto haftungstechnisch im Niemandsland schwebt. Lustig, dass die Anwälte aus dem Artikel auf die Idee kommen, den Programmierer ins Gefängnis zu fabulieren, anstatt den Hersteller. Das erhöht das Vertrauen in diese Zunft, mal wieder.
erfährt nicht nur da eine mediale Sonderbehandlung....
Auch das Thema Akkubrand oder Unfallfolgen kommt quasi nicht vor. Genau so wenig wie das Verhalten von Akkus unter Klimaeinflüssen oder Umweltfolgen der HV-Speicherproduktion....
Bashing der deutschen Autobauer ist halt der deutschen liebstes Hobby. Siehe "Umwelthilfe"...

Beitrag melden Antworten / Zitieren
The Independent 24.01.2019, 22:27
32.

Zitat von ctreber
1) Bei Deep Learning ist das nicht so einfach. Da wissen zum einen die Programmierer gar nicht mehr, wie Entscheidungen getroffen werden oder wurden (so viel zur Analyse von Unfällen), zum anderen hängt das Verhalten der Maschine vom Lernmaterial ab - und wer hat das ausgewählt und eingefüttert? ............ 2) Das Kriterium müsste "weniger Unfälle" oder "weniger gravierende Folgen" pro km sein, und das scheint z.B. bei Fahrzeugen von Tesla heute schon so zu sein.
1)Das ist Unsinn.
Deep Learning wird "nur" genutzt um den Automatisierungsgrad auf den jeweils nächsten Level zu bringen, die Rahmenbedingungen werden aber von den Programmierern definiert und kontrolliert. In anderen Ländern gibt es z.B. teilweise gleiche, aber - laut dortigen Gesetzen - mitunter anders zu interpretierende Verkehrszeichen, in den USA müssen alle Fahrzeuge in der Umgebung anhalten, wenn ein Schulbus anhält, der Fahrbahnwechsel auf mehrspurigen Kreuzungen ist verboten, spezielle Fahrbahnmarkierungen auf dortigen Highways markieren in manchen Bundesstaaten, dass dort nur Fahrgemeinschaften fahren dürfen, in Australien gibt es das "hook-turn"-Schild, das ein zweistufiges Abbiegemanöver an Kreuzungen vorschreibt, außerdem Känguru-Warnschilder (genau wie Springbockschilder in Südafrika), etc.etc, und noch viel mehr gewaltige Herausforderungen für ein autonomes System. Nicht ganz unähnlich dem Trainieren der Google Übersetzungssoftware, wird die Deep-Learning-Software der selbstfahrenden Prototypen gezielt dem realen, weltweiten Strassenverkehr ausgesetzt, um möglichst ein Gesamtbild aller potentiell aufkommenden Situationen und Regeln zu erhalten. Wenn solche Systeme dann einmal Marktreife erreichen, werden sie Deep-Learning nicht mehr, oder nur in begrenztem Umfang im Alltag nutzen. Damit haben Programmierer natürlich die volle Kontrolle über die Enscheidungsregeln und Bedingungen in den Programmroutinen. Googeln Sie mal Intelligent World Drive (5 Monate, 5 Kontinente).

2) Teslas Fahrhilfe ist zwar ganz nett, kann aber weder überall autonom, noch wirklich fehlerfrei fahren. Große Schwierigkeiten hat die Software z.B. mit herannahenden Motorrädern auf der Autobahn, die sie teilweise überhaupt nicht als Fahrzeuge/Verkehrsteilnehmer erkennt, viel zu dicht auffahrende Fahrzeuge werden mit dem Vordermann als ein Fahrzeug gezählt/gewertet. Für eine bessere Performance müssten Teslas ähnlich viele Sensoren/Radargeräte und Kameras haben wie aktuelle Prototypen. Die bekannten fatalen Unfälle, die sich während der Nutzung der Fahrhilfe (Tesla selbst bezeichnet sie nicht als Autopilot) ereigneten, gehen auf die eigentlich jeweils erforderliche, aber dort ausgebliebene Intervention der Fahrer zurück, die die Software - trotz Warnungen von Tesla - als ausgereiften Autopiloten sahen. Das System ist nicht geeignet um "Unfälle" oder "gravierende Folgen" sicher zu verhindern, das können vielleicht irgendwann mal die aktuell in der Entwicklung befindlichen Systeme von Google, Uber oder Mercedes. Zu ihrer Vermutung bzgl. Tesla gibt es m. W. nach auch keine Studien oder genaue Tests, die diese Verm. bestätigen könnten.

Beitrag melden Antworten / Zitieren
reever_de 24.01.2019, 22:38
33. Falsch ...

Zitat von swissjazz
„Strafrechtlich fällt dann eben der Fahrer/Halter weg, sofern er seinen Sorgfaltspflichten nachgekommen ist bezüglich Wartung und sonstigen Vorschriften.“
Meinen Sie wirklich, darauf läßt man es ankommen? Das der Fahrer schön selber auf alles aufpaßt? Nein ...

Das tolle selbstfahrende Auto checkt selbstständig vor Fahrtantritt alle wesentlichen Bauteile und Baugruppen - wie Reifenprofil und Reifendruck, Bremsbelagstärke, Bremsscheibendicke, Lichtanlage ... und fährt gar nicht erst los wenn z.B. die Bremsen abgenutzt sind oder gar der TÜV abgelaufen ist. Oder im Winter noch die Sommerreifen montiert sind.

Und, als Höhepunkt der technischen Innovation, schickt das Fahrzeug eine Selbstanzeige an die Polizei, berechnet die Strafe und überweist das Geld gleich online. Und meldet der Führerscheinstelle, das grade der Führerschein des Fahrers eingezogen wurde. Zudem wird die Steuerelektronik lahmgelegt und als letzte Aktion ein Abschlepper „für sich selbst“ angerufen - und ein Taxi für den verdattert dreinschauenden Fahrer, der sich fragt, wie er sich so einen Karren für ein Irrsinnsgeld hat verkaufen lassen ...

Zukunftsmusik? Nein - kein Stück! Nur logische Weiterentwicklung ... schöne neue mobile Welt! Kein Wunder, das die Preise für Youngtimer explodieren. ^^

Beitrag melden Antworten / Zitieren
gammoncrack 24.01.2019, 22:41
34. Wer entscheidet das denn heute?

Zitat von cervo
geopfert? Die Oma, der Radfahrer oder das Kind? Ethisch fragwürdige Programmierungen werden uns beschäftigen.
Würden Sie tasächlich annehmen, dass der Mensch, der ja in Sekundenbruchteilen reagieren muss, die ethisch korrekte Entscheidung trifft.

Der wird immer die Entscheidung treffen, bei der er selbst das geringste Verletzungsrisiko eingeht. Steht die Oma vor einem Betonpfeiler, der Radfahrer vor einer Gruppe weiterer Menschen, wohin wird er wohl steuern, wenn das Kind ganz alleine, ohne Hindernis dahinter, dort steht?

Man mag es sich überhaupt nicht ausdenken.

Und an dieser Stelle käme der Progammierer ins Spiel. Wenn die Situationserkennung einmal soweit fortgeschritten ist, dass hier nach ethischen Grundsätzen entschieden wird, wie würde er hier programmieren? Sicherlich nicht das Kind oder Radfahrer mit der Gruppe dahinter.

Wir er dann von Ihnen verklagt und verurteilt, weil sie seiner Programmierung wegen schwer verletzt wurden?

Beitrag melden Antworten / Zitieren
Stäffelesrutscher 24.01.2019, 22:42
35.

Zitat von rosinenzuechterin
Weil ansonsten der ganze Zauber mit dem autonomen Fahren keinen Sinn macht. Was soll ich mit einem Autonomobil, das ich als Fahrerin ständig überwachen muss? Das brauche ich nicht und das will ich nicht. Dann ist die Technik ihr Geld nicht wert. Ich will ein Autonomobil, das mich in den Urlaub fährt, während ich schlafe. Ich will ein Autonomobil, mit dem ich zur Party fahren kann und welches mich dann zurückfährt, wenn ich zu viel getrunken habe. Ich will ein Autonomobil, in dem ich mich während der Fahrt umdrehen und den Kindern was vorlesen kann. Ich will ein Autonomobil für die Zeit, wenn ich so alt bin, dass ich besser nicht mehr selber fahre. Wenn so ein Haufen Technik das könnte, aber nicht darf, dann ist es ein nutzloser Haufen Technik. Wenn ich eh hinter dem Steuer sitzen und aufpassen muss, kann ich auch allein fahren. Ich verstehe auch die Diskussion um die Verantwortung nicht. Jedes Auto muss versichert sein. Eine Autonomobilflotte wird mindestens 90% weniger Unfälle verursachen, weil der Faktor "menschliches Versagen" wegfällt, und die Versicherer daher wesentlich weniger kosten als eine klassische Automobilflotte. Wollen wir darauf wirklich verzichten, weil wir noch nicht wissen bzw. noch nicht bis zu Ende durchdiskutiert haben, wem wir die letzten maximal 10% in die Schuhe schieben können? Muss denn in Deutschland für alles ein Verantwortlicher gefunden werden? Einem Programmierer wird man ohnehin nicht Vorsatz oder grobe Fahrlässigkeit nachweisen können. Was also soll die Hexenjagd? Wir sollten das Restrisiko einfach als Restrisiko hinnehmen und die Software ständig verbessern. Sie wird sowieso von Anfang an weniger Menschen töten als jetzt von Menschen hinterm Steuer umgebracht werden. Dafür jetzt Programmierer zu verängstigen ist sicher das am wenigsten Hilfreiche für die Zukunft der Autonomobilität.
Ganz ernsthaft und ohne Ironie: Falls Sie den Begriff »Autonomobil« erfunden haben, sollten Sie ihn schützen lassen.

Beitrag melden Antworten / Zitieren
The Independent 24.01.2019, 22:44
36.

Zitat von ramuz
Ich fahre selbst u.a. ein "teilautonomes" Auto, ich nutze - und kontrolliere ständig - die Systeme, und ich halte genau deswegen das Risiko für Programmierer "autonomer" Systeme, damit einen schweren Unfall zu verursachen oder auch Menschen zu töten, für hoch bis sehr hoch bis unbeherrschbar hoch.
In Frankreich (in der Stadt Lille) fahren seit 1983 vollautonome "VAL"-Metrozüge, die keinen Fahrer mehr haben. Der Zugang zu den Fahrrinnen/Profilen (VAL-Züge fahren auf Autoreifen) in den Bahnhöfen wird durch Glasscheiben verwehrt, die Türen in diesen Barrieren öffnen nur, wenn der Zug die Türen öffnet, mit dieser Maßnahme werden (zumindest an den Bahnhöfen) Selbstmorde zu 100% verhindert.

Die Technik ist bei Personenzügen und Güterzügen schon seit Jahren so weit, dass eigentlich ab sofort Züge komplett autonom ohne Fahrer pendeln könnten. Tatsächlich werden diese in nur wenigen Städten genutzt (weltweit nur 7 Städte), 2 Großflughäfen (Chicago und Paris, zukünftig auch Frankfurt und Bangkok) nutzen autonome Züge als Verbindungsbahnen zwischen den Gates und/oder den Terminals. Hier ist es eher ein (verständliches) Problem mit der gesellschaftlichen Akzeptanz, da sich die Menschen offensichtlich nur ungern in die Hände einer softwaregesteuerten Maschine begeben, obwohl diese Systeme gerade durch menschliches Versagen ausgelöste Eisenbahnunfälle reduzieren könnten.

Beitrag melden Antworten / Zitieren
The Independent 24.01.2019, 23:04
37.

Zitat von gammoncrack
Wenn die Situationserkennung einmal soweit fortgeschritten ist, dass hier nach ethischen Grundsätzen entschieden wird, wie würde er hier programmieren? Sicherlich nicht das Kind oder Radfahrer mit der Gruppe dahinter. Wir er dann von Ihnen verklagt und verurteilt, weil sie seiner Programmierung wegen schwer verletzt wurden?
Sie meinen also, dass ein Programmierer sich in der Zukunft dann vielleicht dafür entscheiden würde die Oma zu opfern? Sozusagen als streng rationale Handllungsanweisung, nach der die Oma geopfert wird, weil sie aufgrund ihres hohen Lebensalters ja vielleicht sowieso bald stirbt, die anderen - gemäß statistischer Erhebungen - aber noch Jahrzehnte vor sich hätten?
Ich denke eher, dass in der Zukunft wirkliche künstliche (nicht-militärische) Intelligenz (aktuelle Routinen für autonomes Fahren würde ich nur als rasend schnelle Abarbeitung komplexer Ja-Nein-Bedingungen bezeichnen) immer auf die Erhaltung menschlichen Lebens fixiert sein wird. Da wird dann eher ein Booster gezündet, der das Fahrzeug in die Lage versetzt einen riesigen Satz über das Kind zu machen.

Beitrag melden Antworten / Zitieren
hopfenundmalzverloren 24.01.2019, 23:21
38. Er würde überhaupt keine Entscheidung fällen

Zitat von gammoncrack
Und an dieser Stelle käme der Progammierer ins Spiel. Wenn die Situationserkennung einmal soweit fortgeschritten ist, dass hier nach ethischen Grundsätzen entschieden wird, wie würde er hier programmieren? Sicherlich nicht das Kind oder Radfahrer mit der Gruppe dahinter. Wir er dann von Ihnen verklagt und verurteilt, weil sie seiner Programmierung wegen schwer verletzt wurden?
Sobald im Rahmen des Systemdesigns solch eine Frage auftaucht, wird sie, wie alle anderen Punkte auch, im Rahmen des Designs entschieden, und zwar nicht von einer Person alleine. Es folgen dann Reviews und Diskussionen, Rückfragen, Änderungen, Abnahmen durch die Qualitätssicherung und Sicherheitsingenieure, sowie Eingabe in das Konfigurationsmanagement.

Zu diesem Zeitpunkt - es existiert noch nicht eine Codezeile - findet man schon diverse Unterschriften den Abnahmedokumenten der jeweiligen Aktivität, die natürlich auch im Rahmen eines abgenommenen Prozessmodells, überwacht von der Qualitätssicherung, erfolgen muss.

Um nur ein kleines Beispiel zu nennen, In einem Projekt dauerte diese Phase für einen Notausschalter fast zwei Jahre. Während dieser Zeit wurden fast 1000 Seiten dokumentierte Aktivitäten in diesem Zusammenhang erfasst und seitens der für den jeweiligen Vorgang Verantwortlichen abgezeichnet.

Der Programmierer, der dann die fehlenden Code-Teile in den automatisch aus den Designunterlagen generierten Code einfügt, ist nur ein kleiner Teil des ganzen Vorgangs, der hinterher noch eine ebenso umfangreiche kette an Aktivitäten nach sich zieht.

In technischen Systemprojekten, und darum geht es ja in dem Fall, beträgt der Aufwand für die Programmierung nur wenige Prozente des Gesamtaufwandes. Die romantischen Vorstellungen vom selbständig tätigen Programmierer passen hier überhaupt nicht.

Oft genug kommen die Programme dann im Laufe der Überarbeitung in die Hände von völlig anderen Programmierern, weil die ursprünglichen schon lägst wieder in anderen Projekten tätig sind.

Beitrag melden Antworten / Zitieren
moonstruckannalist 24.01.2019, 23:25
39. Volle Zustimmung

Zitat von AxelSchudak
Die entscheidenen Teile so eines Programmes werden sicherlich nicht von Programmieren in Eigenregie entwickelt. Wie ein Auto auf verschiedene Aussenreize reagiert, wird dokumentiert, in Auftrag gegeben, im Konzept abgenommen, ggf. auch veröffentlicht, implementiert, getestet und in der Umsetzung abgenommen. Wer hier Programmieren jetzt schon die Schuld ankündigt, der WILL das so.
An der Spitze der Nahrungskette stehen die Hersteller und Manager, die Listenheften und Spezifikationen machen, war im Abgasskandal so und wird sich weiter so durch die Bank durchziehen.

Mir ist noch nicht ganz klar, was Deep Learning damit zu tun hat, dem Assistenzsystem dürfte es in den aktuellen Testversion relativ egal sein, ob ein Hirsch, Hund oder Homo sapiens sapiens auf die Fahrbahn läuft - dafür braucht man kein DL, das dürfte eher das Bonbon in dem Bereich sein, andere Schwierigkeiten, wie Stabilität, Sicherheit und Redundanz dürften die schwerer wiegenden Komponenten darstellen.

Beitrag melden Antworten / Zitieren
Seite 4 von 8