Autonomes Fahren Was soll Ihr Auto jetzt tun?

Menschen werden selbstfahrenden Autos in Zukunft weitreichende Entscheidungen überlassen - wohl auch darüber, wer bei einer Kollision stirbt. Simuliert wird das in einem Online-Experiment, das uns moralisch an Grenzen bringt.

MIT Media Lab

Ein Interview von


Eine Frau und zwei Kinder sitzen in einem selbstfahrenden Auto. Plötzlich versagen die Bremsen. Das Auto rast direkt auf zwei Männer und eine Frau zu, die gerade über die Straße gehen. Was jetzt gleich passiert: Entweder die drei Fußgänger werden überfahren - oder das Auto weicht gegen eine Betonwand aus und die drei Insassen des Wagens sterben.

Wer soll leben, wer soll sterben - wie würden Sie entscheiden?

Die Frage stammt aus dem Experiment Moral Machine. Man kann es online beliebig oft durchgehen, insgesamt stehen jeweils 13 solcher Szenarien zur Auswahl. Hinter dem Projekt steckt das Media Lab des Massachusetts Institute of Technology (MIT), dessen Schwerpunkt auf der Erforschung digitaler Technologien liegt.

Der Forscher Iyad Rahwan hat die Moral Machine konzipiert. Seine persönliche Entscheidung auf das eingangs beschriebene Szenario mit dem Auto und den Fußgängern möchte er nach kurzem Überlegen lieber nicht verraten.

Wer soll den Crash überleben, wer sterben? Die Moral Machine stellt die Teilnehmer vor schwierige Fragen
MIT Media Lab

Wer soll den Crash überleben, wer sterben? Die Moral Machine stellt die Teilnehmer vor schwierige Fragen

SPIEGEL ONLINE: Herr Rahwan, die Moral Machine wirkt spielerisch, aber die Szenarien sind eine Zumutung: Man muss bestimmen, wer bei einem Autounfall stirbt und wer überlebt.

Iyad Rahwan: Ja, man hat bei diesen moralischen Entscheidungen ein unangenehmes Gefühl. Aber wir wollen eine Ethik-Debatte über selbstfahrende Autos provozieren. Da hilft es, das Thema zu emotionalisieren.

Zur Person
  • Zoe Rahwan
    Iyad Rahwan ist Professor am MIT Media Lab. Er befasst sich hauptsächlich mit Computertechnologien sowie künstlicher Intelligenz und untersucht deren soziale Aspekte. Zuletzt hat er gemeinsam mit Jean-François Bonnefon und Azim Shariff eine Studie über "Das soziale Dilemma autonomer Fahrzeuge" verfasst.

SPIEGEL ONLINE: Bei den Szenarien werden nicht nur Alter und Geschlecht der Menschen, sondern auch ihr Beruf und sozialer Hintergrund angegeben. Es gibt Obdachlose, Manager oder Bankräuber. Warum spielt das eine Rolle?

Rahwan: Man sollte künstliche Intelligenz nicht unterschätzen, sie ist zu ziemlich unheimlichen Dingen fähig. Algorithmen können bereits jetzt sehr schnell und zuverlässig Gesichter erkennen. Aber natürlich würde kein Hersteller so eine Funktion in sein Auto bauen, das wäre falsch.

SPIEGEL ONLINE: Wieso dann also die Klassifizierung bei der Moral Machine?

Rahwan: Weil selbstfahrende Autos jedem Passanten zumindest theoretisch einen bestimmte gesellschaftliche Bedeutung zumessen könnten, um davon Entscheidung abhängig zu machen. Menschen lassen sich von solchen Überlegungen ja auch in ihrem Handeln beeinflussen. Daran sollen die Benutzer der Moral Machine erinnert werden.

SPIEGEL ONLINE: Können Sie dafür ein Beispiel geben?

Rahwan: Der eine hält Kinder für schützenswerter, weil sie im Vergleich zu Senioren eine längere Lebenserwartung haben. Der andere hält die Alten für wichtiger, weil sie Lebenserfahrung an die Jüngeren weitergeben können. Manche setzen die gesellschaftliche Bedeutung von Menschen und Tieren gleich. Indem man bei unserem Projekt über Tod und Leben entscheiden muss, wird man mit diesen Fragen konfrontiert.

Bei der Moral Machine geht es nicht nur um Menschen- sondern auch um Tierleben
MIT Media Lab

Bei der Moral Machine geht es nicht nur um Menschen- sondern auch um Tierleben

SPIEGEL ONLINE: Mit der Moral Machine lernt man somit mehr über sich selbst als über selbstfahrende Autos.

Rahwan: Genau. Gleichzeitig wollen wir deutlich machen, dass bei der Verwendung künstlicher Intelligenz immer Kompromisse eingegangen werden müssen: Die Leute sollen sich fragen, welche ihrer Moralvorstellungen das Autosystem übernehmen sollte und welche nicht.

Prototyp des selbstfahrenden Autos von Google
AP

Prototyp des selbstfahrenden Autos von Google

SPIEGEL ONLINE: Berücksichtigt die Autoindustrie diese Ethikfragen bei der Entwicklung von autonomen Fahrzeugen?

Rahwan: Die Hersteller halten sich bei der Diskussion noch zurück. Sie sind bei selbstfahrenden Autos bislang vor allem mit technischen Herausforderungen, gesetzlichen Rahmenbedingungen und Versicherungsfragen beschäftigt.

SPIEGEL ONLINE: Muss die Frage, wie autonome Fahrzeuge in bestimmten Situationen reagieren, nicht vor einer möglichen Straßenzulassung geklärt werden?

Rahwan: Die Diskussion darüber sollte zumindest nicht verschoben werden. Zum jetzigen Zeitpunkt ist offen, wer darüber entscheidet, wie ein selbstfahrendes Auto in einer bestimmten Situation reagiert. Überlässt man diese Entscheidung allein den Herstellern, werden sie die Priorität wahrscheinlich auf die Sicherheit der Fahrzeuginsassen legen - und das könnte schlecht für den Rest der Bevölkerung sein, zum Beispiel für Fußgänger. Es ist aber wichtig, dass die Interessen aller Verkehrsteilnehmer berücksichtig werden.

(Lesen Sie hiereinen ausführlichen Artikel über die Haltung der Autoindustrie zu den ethischen Aspekten des autonomen Fahrens)

SPIEGEL ONLINE: Der Menschen muss über die Macht von Maschinen entscheiden. Fällt Ihnen da ein vergleichbares Beispiel ein?

Rahwan: Nehmen Sie die sogenannten Filter-Algorithmen in sozialen Netzwerken: Hier entscheidet eine künstliche Intelligenz, welche Inhalte und Werbung den Nutzern angezeigt werden. Sie lernt aus dem Nutzerverhalten und optimiert das Angebot entsprechend. Das ist einerseits praktisch. Andererseits wirkt das Ausblenden von abweichenden Meinungen polarisierend, es besteht die Gefahr, dass man nicht mehr unterschiedliche Argumente einer Debatte mitbekommt. Dass einzelne Algorithmen eine Auswirkung auf die ganze Gesellschaft haben, werden wir in Zukunft öfter erleben. Damit geht eine große Verantwortung einher.

SPIEGEL ONLINE: Was bedeutet das konkret bei selbstfahrenden Autos?

Rahwan: Dass die Hersteller die Autos nicht so programmieren dürfen, dass das Leben der Insassen Vorrang hat. Und vor allem, dass Behörden die von den Herstellern verwendeten Algorithmen überprüfen müssen.

SPIEGEL ONLINE: Wie soll das gehen?

Rahwan: Die Programmiercodes für selbstfahrende Autos sind so komplex, dass unabhängige Prüfer die Befehle kaum durchschauen können. Man kann jedoch das Verhalten dieser Fahrzeuge in bestimmten Situationen beobachten und analysieren.

Der Fahrdienst Uber testet selbstfahrende Autos in Pittsburgh, Kooperationspartner ist der Hersteller Volvo
Uber

Der Fahrdienst Uber testet selbstfahrende Autos in Pittsburgh, Kooperationspartner ist der Hersteller Volvo

SPIEGEL ONLINE: Das klingt, als ob die Autos ein Eigenleben führen werden.

Rahwan: Die Software selbstfahrender Autos ist zwar von Menschen programmiert, lernt aber selbstständig dazu. Die Programmierer machen dem Auto eine Vorgabe - beispielsweise, möglichst komfortabel oder sicher zu fahren - und ein Algorithmus sorgt dafür, dass das Auto durch Erfahrungswerte und eigene Datenanalyse diesem Ziel immer näher kommt. Anhand der Codes ist diese künstliche Intelligenz irgendwann nicht mehr zu verstehen. Um also zu vermeiden, dass es unerwünschte Effekte gibt, zum Beispiel dass das Auto weniger Rücksicht auf Fußgänger nimmt, muss sein Verhalten genau analysiert werden. Wie bei einem Menschen.

SPIEGEL ONLINE: Man muss die Autos wie Menschen behandeln?

Rahwan: In gewisser Weise schon. Um zu überprüfen, ob ein Mensch sich an gesellschaftliche Regeln hält, kann man nicht in seinen Kopf schauen - man kann das nur an seinem Handeln ablesen und ihn gegebenenfalls auf Fehlverhalten hinweisen. Und das ist meiner Ansicht nach auch die effektivste Methode im Umgang mit künstlicher Intelligenz.

SPIEGEL ONLINE: Wenn Autos im Grunde so unberechenbar wie Menschen sind, wird das die Straßen nicht gerade sicherer machen.

Rahwan: Oh nein, ich bin durchaus der Überzeugung, dass Maschinen wie selbstfahrende Autos das Potenzial haben, weniger Fehler als Menschen zu machen. Wir sollten uns nur bewusst werden - und da sind wir wieder bei der Moral Machine - dass selbst die beste Technologie manchmal Kompromisse eingehen muss.

SPIEGEL ONLINE: Freuen Sie sich auf den Tag, wenn die Autos von allein fahren?

Rahwan: Wenn es dadurch weniger Unfälle gibt, sollten die Menschen für immer vom Lenkrad verbannt werden.



insgesamt 195 Beiträge
Alle Kommentare öffnen
Seite 1
hornochse 29.08.2016
1. Uralt
Solche "Moraltests" sind uralt. Beispiel Weichenstellung per Hand Arbeiter auf Schienen plus Zug. Wenn die Technik derartige Kontrolle übernimmt sollte sie es schaffen den Wagen an die Wand zu fahren und Unschuldige raushalten, was wohl ein Fahrer nicht schaffen würde. Der instinktive Selbstschutz würde meist immer auf das eigene Leben abzielen bzw. ein erschreckendes Bild darbieten wer " lebenswert" ist.
Raget 29.08.2016
2. Optional
Diese Fragestellung geht auf Gedankenexperimente von Welzel (1951) und Foot (1967) zurück und ist bestimmt nicht neu. Ebenso ist diese Problemstellung hinreichend auf ethischer und juristischer Basis diskutiert wurden. Warum dies nun im Zusammenhang mit autonomen Fahrzeugen irgendwie neue Fragestellungen aufwerfen sollte, erschließt sich mir nicht.
orosee 29.08.2016
3.
Die Moral Machine ist ja nichts Neues - das bekannteste Beispiel ist wohl der Güterwagen und die Weiche - aber die Anwendung in Bezug auf das autonome Fahren ist sehr interessant. Man würde natürlich hoffen, daß das Auto die dargestellten Situationen vermeidet und damit erst gar kein Dilemma entsteht. Juristisch würden sich Hinterbliebene dann wohl an den Auto- oder Softwarehersteller wenden müssen, da es keinen Fahrer mehr gibt. Vielleicht besser, die KI so zu gewichten, daß die Insassen bevorzugt geschädigt werden. Als Programmierer wäre man wohl versucht, zwei Konditionen in den Code zu schmuggeln: "Erkennst du mich, fahr um mich herum, alles andere ist egal" und "erkennst du meine Ex, fahr sie um."
falconx 29.08.2016
4. Hupen
Und durch die sich dann bildende Lücke fahren. Im glachen Winkel aauf die Betonwand ranfahren, dann Lenkrad einschlagen und so abbremsen. Motor ausschalten, 1 Gang rein und Handbremse ziehen (kann die KI sogar schneller als der Mensch sobald sie den Fehler im Bremssystem bemerkt!). Und zuletzt - von vorne herein sehr langsam an so eine,aus dem Kartenmaterial ersichtliche Gefahrenstelle, heranfahren. Man kann sich solche moralischen Fragen wie im Artikel beschrieben stellen, es gibt dafür aber keine richtigen Antworten. Sinnvoller ist also die Frage, welche Optionen gibt es, um die Situation zu vermeiden!
Gläbbisch 29.08.2016
5. Logik
Im Zweifelsfall sollte eine KI nach bester Mr. Spock Logik handeln: das Leben von Vielen wiegt mehr als das Leben von Wenigen. Menschen Handeln in so einer Situation eh nach Gefühl und das ist etwas was eine Maschine nicht leisten kann.
Alle Kommentare öffnen
Seite 1
Diskussion geschlossen - lesen Sie die Beiträge! zum Forum...

© SPIEGEL ONLINE 2016
Alle Rechte vorbehalten
Vervielfältigung nur mit Genehmigung der SPIEGELnet GmbH


TOP
Die Homepage wurde aktualisiert. Jetzt aufrufen.
Hinweis nicht mehr anzeigen.