Technischer Fortschritt Brauchen wir Bürgerrechte für Roboter?

Vom Staubsauger bis zur Pflegerobbe für Demenzkranke: Roboter sind längst in den menschlichen Alltag integriert - wie sollten wir mit ihnen umgehen? Fragen an die Philosophin Janina Loh.
Ein Interview von Silke Weber
Sexroboter Samantha: "Bei ihr ist das Übergehen dieses Neins der Tendenz nach schon angelegt"

Sexroboter Samantha: "Bei ihr ist das Übergehen dieses Neins der Tendenz nach schon angelegt"

Foto:

Albert Gea/ REUTERS

SPIEGEL: Frau Loh, Sie beschäftigen sich als Philosophin mit moralischen Herausforderungen, die bei unserem Umgang mit Robotern eine Rolle spielen. Ganz basal gefragt: Wie verhalte ich mich einem Roboter gegenüber angemessen?

Janina Loh: Wenn es ein Pflegeroboter ist, der in Ihrem Haus zum Einsatz kommt, wäre es wahrscheinlich gut, ihn freundlich zu behandeln. Er ist ein künstlicher Gefährte, der im Alltag unterstützt. Generell kann man gegenüber Tischen, Gläsern, Computern, allen Gegenständen, denen wir einen Wert zuschreiben, ein bestimmtes Verhalten erwarten. Manche Tugendethiker*innen würden es moralisch sogar verwerflich finden, Gegenstände mutwillig zu zerstören.

SPIEGEL: In der Serie "Real Humans" werden Roboter in Verbrauchermärkten verkauft. Sie sind je nach Programmierung abgerichtet auf die Nöte junger Familien, sexuell frustrierter Ehefrauen oder pflegebedürftiger Senioren. Bald geht es um die ganz großen Fragen, etwa die, ob Mensch und Roboter nicht heiraten und Kinder adoptieren dürfen, ob Roboter Arbeitsrechte brauchen oder Straftäter sein können.

Loh: Von so einer Welt sind wir weit entfernt. Ich bin skeptisch, ob wir da überhaupt jemals hingelangen werden. Und natürlich können Maschinen fehlgehen. Aber wenn der Staubsaugerroboter versehentlich über den Schwanz der Hauskatze fährt und das Tier stark verletzt, ist er noch kein artifizieller Straftäter.

SPIEGEL: Trotzdem: Die Entwicklung geht doch weiter, oder? Der Roboter Sophia hat 2017 als erster Roboter weltweit in Saudi-Arabien die Bürgerrechte zugesprochen bekommen.

Loh: Wenn Sophia nun randalierend durch die Gegend läuft und einen Mord verübt, dann müsste man sie theoretisch als artifizielle Straftäterin einstufen. Ich habe nichts dagegen, wenn Roboter irgendwann Bürgerrechte zugesprochen bekommen. Dass es aber ausgerechnet Sophia sein muss, halte ich vor dem Hintergrund der Gesetzgebung in Saudi-Arabien, wo die Rechte von Frauen stark eingeschränkt sind, für problematisch. Darüber hinaus kann sie auch nicht sonderlich viel. Wobei Intelligenz sowieso nicht das einzige und ausschlaggebende Kriterium für moralisches Handeln ist. 

Anzeige
Loh, Janina

Roboterethik: Eine Einführung (suhrkamp taschenbuch wissenschaft)

Verlag: Suhrkamp Verlag
Seitenzahl: 241
Für 18,00 € kaufen
Produktbesprechungen erfolgen rein redaktionell und unabhängig. Über die sogenannten Affiliate-Links oben erhalten wir beim Kauf in der Regel eine Provision vom Händler. Mehr Informationen dazu hier

SPIEGEL: 2015 ist weltweit der erste Ethikrat in Deutschland zum autonomen Fahren eingesetzt worden, weil nicht klar ist, nach welchen ethischen Prinzipien ein Auto entscheiden sollte, wenn es in ein Dilemma gerät. Haben Sie einen Vorschlag?

Loh: Die Ethikkommission hat in einer ersten Veröffentlichung empfohlen, dass das autonome Auto nicht nach Kriterien wie Geschlecht, Hautfarbe und Anzahl oder Beruf der Personen, die potenziell verletzt werden, entscheiden darf. Ich würde vorschlagen, das Auto sollte den zuvor einprogrammierten Weg beibehalten.

SPIEGEL: Warum?

Loh: Ich würde hier auch keine Kosten-Nutzen-Abwägung vornehmen, wie es sie in bestimmten philosophischen Schulen ja durchaus gibt. Sondern mit Kant argumentieren: Da die Würde des Menschen unantastbar ist, hat jeder Mensch einen unendlichen Wert - und Unendlichkeit ist mathematisch nicht aufsummierbar, das heißt also, zwei Personen sind genauso unendlich viel wert wie 100.

SPIEGEL: Wie sieht es mit der Ethik anderer Roboter aus? Von dem Sexroboter Samantha wurde behauptet, sie habe einen Moralkodex.

Loh: Nur, weil sie "Nein" sagen kann. Das ist natürlich Bullshit. Das reicht noch nicht für einen Moralkodex.

SPIEGEL: Warum?

Loh: Man müsste Samantha zumindest ein bestimmtes Verständnis von sexualisierter Gewalt einprogrammieren. Aber Samantha kennt keine Gründe, nach denen sie "Nein" sagen kann. Der Erfinder, Sergi Santos, hätten zum Beispiel einbauen können, dass sie sich wehren kann, dass sie jemanden wegschubsen kann. Aber bei ihr ist das Übergehen dieses "Neins" der Tendenz nach schon angelegt. Und selbst wenn dieser Roboter sich wehren könnte, müsste er in der Lage sein, geltend zu machen, dass er gerade vergewaltigt wurde. Er müsste zum Beispiel online gehen und sich an seine Erbauer*innen richten können - und es müssten entsprechende Schritte eingeleitet werden.

SPIEGEL: Sind Sie wie die Roboterethikerin Kathleen Richardson also der Meinung, dass Sexroboter eine Kultur der Vergewaltigung unterstützen?

Loh: Ich stimme dem zwar zu, aber es ist kein Problem der Sexroboter selbst. Problematische Genderstereotype, die Frauen als willfährige Objekte begreifen, haben wir schon bei aufblasbaren Gummipuppen. Das würde sich nicht ändern, wenn wir Sexroboter abschaffen. Und Sexroboter können durchaus für positive Zwecke eingesetzt werden.

SPIEGEL: Wann zum Beispiel?

Loh: In der Traumatherapie gibt es Ansätze, Patientinnen damit zu helfen - unter Ärzt*innen wird diskutiert, Sexroboter therapeutisch bei Pädophilie einzusetzen. Es gibt auch Menschen, die durch körperliche Einschränkungen erstmalig die Möglichkeit haben, ihre Bedürfnisse mit Sexrobotern auszudrücken. Wir sollten darüber nachdenken, wer Sexroboter herstellt. Wir brauchen, wie auf allen anderen gesellschaftlichen Ebenen auch, hier eine viel diversere Kultur. Momentan gibt es vor allem weibliche Sexroboter, wenige männliche und, soweit ich weiß, nur einen transgender. Natürlich ist Technik und damit auch Roboter nie ethisch neutral - weil sie durch Menschen entworfen, gebaut, designt und programmiert sind.

SPIEGEL: Trägt der Mensch Verantwortung gegenüber dem Roboter, den er baut?

Loh: Wenn wir Verantwortung als Interaktion verstehen, dann auf jeden Fall. Nehmen wir zum Beispiel die Roboterrobbe Paro für demenzkranke Patient*innen. Paro ist so toll, weil Demenzkranke, die dazu neigen, sich zu isolieren, sich dieser Robbe öffnen und wir etwas über sie erfahren, das wir ohne diese Robbe nicht erfahren hätten. Paro hat also einen ganz anderen Wert für diese Menschen als ein Staubsaugerroboter. Man könnte sagen, Paro ist ein Objekt moralischen Handelns, deshalb sollte man ihm gegenüber nicht gewalttätig sein; Immanuel Kant würde dann von einer moralischen Degenerierung, also von einer moralischen Verrohung des Menschen sprechen.

Die Wiedergabe wurde unterbrochen.