Forum: Auto
Verkehrsgerichtstag: Unfälle mit selbstfahrenden Autos - müssen Programmierer ins Gef
Zoox

Für Unfälle mit selbstfahrenden Autos sollen nicht die Insassen verantwortlich gemacht werden - darauf pochen Experten auf dem Verkehrsgerichtstag. Große Probleme könnten dagegen die Programmierer bekommen.

Seite 1 von 8
ctreber 24.01.2019, 19:56
1. Bei Deep Learning ist das nicht so einfach

Da wissen zum einen die Programmierer gar nicht mehr, wie Entscheidungen getroffen werden oder wurden (so viel zur Analyse von Unfällen), zum anderen hängt das Verhalten der Maschine vom Lernmaterial ab - und wer hat das ausgewählt und eingefüttert? Die Kette ist so lang: Sensoren, deren Art, Anzahl, Ausrichtung, Reichweite, Empfindlichkeit; Signalkomprimierung/ -aufbereitung/ -vorverdichtung, Algorithmen beim Lernen und beim Fahren etc etc.

Außerdem gibt es bei solchen Maschinen nicht den einen Programmierer, sondern in Summe über alle Aspekte eher hunderte. Da werden Firmen (Hersteller der Autos) haften müssen, nicht Einzelpersonen.

Weiter: Es wäre Unsinn, in jedem Unfall einen Fehler mit dem Auto zu sehen oder beim autonomen Fahren Unfallfreiheit zu erwarten. Das Kriterium müsste "weniger Unfälle" oder "weniger gravierende Folgen" pro km sein, und das scheint z.B. bei Fahrzeugen von Tesla heute schon so zu sein.

Beitrag melden Antworten / Zitieren
ramuz 24.01.2019, 20:00
2. Ja - na und?

"Bedenken meldete der Deutsche Anwaltverein (DAV) an. Ein schärfere Haftung für die Hersteller könne bedeuten, "dass man mit der Berufswahl des Programmierers den ersten Fuß im Gefängnis hat", erläuterte Daniela Mielchen von der DAV-Arbeitsgemeinschaft Verkehrsrecht."


Wenn Sie sich entscheiden, Heroinverkäufer zu werden, wird es auch so sein, dass Sie bei dieser "Berufswahl [...] den ersten Fuß im Gefängnis" haben - bei beiden werden Sie sehr wahrscheinlich irgendwann mindestens einen Menschen getötet haben.

Warum der DAV da aber Bedenken hat - Mensch, da ist doch mal wirklich Geld zu verdienen - so viele angeklagte Programmierer!

Ich fahre selbst u.a. ein "teilautonomes" Auto, ich nutze - und kontrolliere ständig - die Systeme, und ich halte genau deswegen das Risiko für Programmierer "autonomer" Systeme, damit einen schweren Unfall zu verursachen oder auch Menschen zu töten, für hoch bis sehr hoch bis unbeherrschbar hoch.

Beitrag melden Antworten / Zitieren
cervo 24.01.2019, 20:01
3. Wer wird im Fall eines Konflikts

geopfert? Die Oma, der Radfahrer oder das Kind?
Ethisch fragwürdige Programmierungen werden uns beschäftigen.

Beitrag melden Antworten / Zitieren
at.engel 24.01.2019, 20:02
4.

Als Käufer eines Wagens unterschreibe ich nur einen Vertrag, und zwar mit dem Hersteller, der auch für die Funktionsfähigkeit der Wagens zu haften hat. Mich interessiert weder, an welchem Zulieferer oder Programmierer die Ursache liegt, noch kann ich mir jahrelange Prozesse leisten, weil der Herteller die Schuld auf andere schiebt.
Entweder der Hersteller übernimmt die Verantwortung, sobald der Wagen "autonom" fährt, oder die Sache ist gegessen - allerpätestens nach dem ersten Prozess. Ich kann ja als Laie z.B. beuteilen, wie abgefahren oder nicht das Profil eines Reifens ist, aber nicht, wie gut oder nicht ein Programm ist.

Beitrag melden Antworten / Zitieren
mpigerl 24.01.2019, 20:02
5. seltsame Sichtweise

Bei einem Softwarefehler in der Software eines Flugzeuges trägt der Hersteller die Verantwortung (bzw dessen Qualitätssicherung), aber nicht der einzelne Programmierer und darüber hinaus ist es Aufgabe des Pilotes das System zu überwachen und ggf. einzugreifen. Bei einem Softwarefehler in der Software eines Navigationssystems in der Chirurgie trägt der Hersteller die Verantwortung (bzw dessen Qualitätssicherung), aber nicht der einzelne Programmierer und darüber hinaus ist es Aufgabe des Chirurgen das System zu überwachen. Nur beim Automobil will man den einzelnen Programmierer verantwortlich machen und darüberhinaus den Fahrer komplett entlasten! Warum?

Beitrag melden Antworten / Zitieren
ulijoergens 24.01.2019, 20:03
6. Das ist doch nichts neues

Heute steckt schon in derartig viele sicherheitsrelevanten Systemen, dass Softwareentwickler natürlich hohe Verantwortung tragen. Nicht nur in Flugzeugen, wo Fehler in den Bordsystemen katastrophale Auswirkungen haben können (siehe Air Liam Boeing Absturz) aber auch heute schon in Autos, wie zum Beispiel Bremsassistenten. Medizintechnik ist ebenfalls zu einem großen Teil SOFTWARE.
Wichtig sind Normen und Zertifizierungen mit entsprechenden Sicherheitsanforderungen von der Entwicklung bis zu Test und Verifikationen. Wie gesagt, gibt es eigentlich alles schon.

Beitrag melden Antworten / Zitieren
AxelSchudak 24.01.2019, 20:03
7. Programmierer?

Die entscheidenen Teile so eines Programmes werden sicherlich nicht von Programmieren in Eigenregie entwickelt. Wie ein Auto auf verschiedene Aussenreize reagiert, wird dokumentiert, in Auftrag gegeben, im Konzept abgenommen, ggf. auch veröffentlicht, implementiert, getestet und in der Umsetzung abgenommen.

Wer hier Programmieren jetzt schon die Schuld ankündigt, der WILL das so.

Beitrag melden Antworten / Zitieren
viceman 24.01.2019, 20:07
8. richtig so,

es geht den vorreitern des autonomen fahrens nur um maximalen profit, durch einsparung des kostenfaktors mensch als fahrzeugführer. das ist ein irrweg, der neoliberalen Bande,meiner Meinung nach..

Beitrag melden Antworten / Zitieren
Sensør 24.01.2019, 20:14
9. Wo ist das Problem?

Wer ein selbstfahrendes Auto kauft und betreibt, ist auch für die Todesfälle und Sachschäden verantwortlich, die er damit verursacht. Wer damit nicht einverstanden ist, sollte besser selber fahren.

Beitrag melden Antworten / Zitieren
Seite 1 von 8