Tödlicher Uber-Unfall Fürchtet euch ruhig

Viele Menschen stehen Roboterautos skeptisch gegenüber - obwohl sie viele Verkehrstote verhindern könnten. Diese Aversion ist allerdings weitaus weniger irrational, als man denkt, meint der SciFi-Autor Tom Hillenbrand.
Selbstfahrendes Auto (Symbolbild)

Selbstfahrendes Auto (Symbolbild)

Foto: Getty Images/RooM RF

Es gibt vieles, vor dem uns gruselt. Mehr als die Hälfte der Deutschen hat Angst vor Gift im Essen (58 Prozent) und vor Naturkatastrophen (56 Prozent). Was uns jedoch mit namenloser Furcht erfüllt, sind selbstfahrende Autos. Laut Emnid graust 84 Prozent davor, von einem Pkw mit künstlicher Intelligenz (KI) kutschiert zu werden.

Diese Zahlen wurden erhoben, bevor ein selbstfahrender Pkw der Firma Uber - offenbar ohne zu bremsen - eine Passantin niedermähte. Vermutlich sind die Vorbehalte gegen Robo-Autos nun größer als die gegen Plutonium-Genmais.

Es ist leicht, sich über diese scheinbar irrationale Furcht lustig zu machen. In Deutschland stirbt alle 2,7 Stunden ein Mensch im Straßenverkehr. Es scheint gewiss zu sein, dass die lenkenden Maschinen von morgen weitaus weniger Personen das Leben kosten werden als die lenkenden Menschen von heute. Eine Reduktion der Verkehrstoten um 90 Prozent sei möglich, sagen Optimisten.

Der Irrglaube von der perfekten Maschine

Diese Zusammenhänge zu verstehen, ist nicht schwer. Woher also kommt die immense Ablehnung des Robocars?

Sie hängt zum einem mit unserem sich wandelnden Technologieverständnis zusammen. Früher war die Maschine ein Ding aus Eisen, das dampfte, zischte und des Öfteren in die Luft flog. Heute ist die Maschine leise, sauber und nahezu störungsfrei.

Geht doch einmal etwas schief, gehen wir an die Decke. Dies lässt sich mithilfe psychologischer Experimente nachweisen. Forscher bezeichnen das Phänomen als "algorithm aversion": Menschen gehen (fälschlicherweise) davon aus, dass Maschinen perfekt sind. Sobald deren Unvollkommenheit offenbar wird, wie etwa im Fall des Uber-Autos, nehmen Menschen (fälschlicherweise) an, sie könnten es besser. Fehler von Maschinen werden unerbittlich kritisiert, eigene Fehler hingegen umgehend rationalisiert und verziehen: Ja, ich hatte auch einen Unfall. Aber jetzt weiß ich doch, was ich damals falsch gemacht habe.

Die rote Linie wird bald überschritten

Neben dieser psychologischen Blockade dürfte es einen weiteren Grund dafür geben, dass wir uns mit autonomen Autos schwer tun. Es handelt sich um eine Art kulturelles Unbehagen, das viele von uns instinktiv spüren, aber nicht benennen können: Es ist die Ahnung, dass wir mit der Einführung des selbstfahrenden Autos eine rote Linie im Verhältnis von Mensch und Maschine überschreiten. Wir bewegen uns schon länger auf diese Linie zu. Aber erst jetzt wird uns bewusst, was sie bedeutet.

Seit Jahren geben wir Kontrolle an Maschinen ab. KI errechnet unsere Kreditratings, sie trägt unsere Flugbuchungen in den Kalender ein, sie weiß, wo wir geparkt haben. All dies war nur das Präludium. Es ging um kleine Dinge, um kleine Entscheidungen. Doch nun, und das versetzt uns unterbewusst in Unruhe, geht es an die großen.

Schon vor 40 Jahren hat uns Joseph Weizenbaum in seinem Buch "Die Macht der Computer und die Ohnmacht der Vernunft" vor diesem Moment gewarnt. Egal wie schlau eine Maschine sei, so der KI-Pionier, sie könne nur entscheiden. Ein Mensch hingegen sei auch in der Lage zu wählen.

Wir geben die Entscheidung ab

Was Weizenbaum meinte: Einen Algorithmus kann man zwar so programmieren, dass er für viele Eventualitäten sinnvolle Reaktionen parat hält. Aber ein Rechner vermag niemals moralische Entscheidungen zu treffen. Und deshalb, so Weizenbaums Appell, sollten wir die ganz wichtigen Entscheidungen nie von Maschinen treffen lassen.

Wir sind dabei, Weizenbaums Rat zu ignorieren. Wir geben gerade die Kontrolle über einige sehr wichtige Entscheidungen ab. Denn auch, wenn die KI unfallfreier fährt als der Mensch, wird es immer wieder zu jenen Situationen kommen, die man in der philosophischen Ethik als Trolley-Problem bezeichnet.

Das Gedankenexperiment geht so: Eine führerlose Tram rast auf eine Menschenmenge zu. Es gibt eine Weiche, man könnte den Zug also auf ein anderes Gleis umleiten, auf dem nur ein Mensch steht.

Den Hebel umlegen? Oder den Dingen ihren Lauf lassen?

Wie modelliert man das Trolley-Problem in einem selbstfahrenden BMW? Die Rollator-Oma überfahren oder lieber das Kind mit dem Roller? Es ist unmöglich, alle denkbaren Szenarien einzuprogrammieren. Der Computer wird in vielen Fällen selbst entscheiden müssen, auf Basis von Sensordaten und statistischen Werten, auf Erfahrungswerten aus dem machine learning.

Anzeige
Hillenbrand, Tom

Hologrammatica: Thriller (Aus der Welt der Hologrammatica, Band 1)

Verlag: KiWi-Taschenbuch
Seitenzahl: 560
Für 12,00 € kaufen
Produktbesprechungen erfolgen rein redaktionell und unabhängig. Über die sogenannten Affiliate-Links oben erhalten wir beim Kauf in der Regel eine Provision vom Händler. Mehr Informationen dazu hier

Es ist keineswegs gesagt, dass ein Mensch in derartigen Situationen bessere Entscheidungen träfe als eine KI. Aber das ist nicht der Punkt. Der Punkt ist, dass wir der Maschine die wichtigste aller Entscheidungen anvertrauen: die über Leben und Tod.

Das dürfen derzeit nicht einmal Drohnen des US-Militärs. Bevor sie feuern, muss ein Mensch die kill decision geben. Wenn Maschinen unsere Autos lenken, unsere DHL-Lieferwägen, Kräne und Bagger, werden KI-Systeme täglich über Fragen von Leben und Tod entscheiden. Wenn wir die Kontrolle über diese Frage abgeben, geben wir dann nicht alle Kontrolle ab?

Die tote Passantin von Arizona erinnert uns daran. Wir ahnen instinktiv, dass wir bald in einer andere Welt leben werden.

Im Video: Uber bei tödlichem Unfall womöglich schuldlos

SPIEGEL ONLINE