Strafrecht für Roboter Maschinen sollen für eigene Fehler haften

Roboter werden immer intelligenter und können lernen wie Menschen oder Tiere. Der Philosoph Andreas Matthias fordert deshalb eine Art Strafrecht für Maschinen: Sie sollten für angerichtete Schäden geradestehen, sagt er im Interview mit SPIEGEL ONLINE.


SPIEGEL ONLINE: Sie wollen lernfähige Maschinen für begangene Fehler verantwortlich machen. Fürchten Sie sich vor Robotern?

Andreas Matthias: Überhaupt nicht. Ich habe selbst jahrelang an der Uni Kassel programmiert. Mir geht es nicht um Furcht vor der Maschine, sondern darum, dass Maschinen immer mehr Verantwortung in der Gesellschaft übernehmen - weil sie Entscheidungen selbständig treffen. Und wenn sie dabei Fehler machen, muss man regeln, wer dafür geradesteht.

SPIEGEL ONLINE: Aber die Maschine wurde doch von Menschen gemacht. Warum soll nicht der Programmierer haften?

Matthias: Die Vorstellung, dass ein Programm der Maschine vollständig sagt, was sie tun soll, stammt doch aus den siebziger Jahren. Das Programmieren hat sich geändert. Heute werden statt einer definierten Anweisungsfolge oft neuronale Netze genutzt, wie sie zum Beispiel auch in der Struktur des Gehirns zu finden sind. Anweisungen sind nicht als Befehl gespeichert, sondern als synaptische Gewichte. Das neuronale Netz lernt - und man kann im Anschluss nicht mehr sagen, was gerade gelernt wurde. Heute bringen sich Maschinen immer öfter selbst Dinge bei. Sie werden trainiert, nicht programmiert. Der Mensch stellt der Maschine nur noch das Wissen bereit.

SPIEGEL ONLINE: Das klingt, als wollten Sie Herstellern von Robotern teure Schadenersatzklagen ersparen.

Matthias: Mir geht es darum, dass unser Rechtssystem gerecht bleibt. Gerecht ist für mich, jemandem die Verantwortung für einen Vorgang zuzusprechen, der die Kontrolle über diesen Vorgang hat. Hersteller von selbstlernenden Maschinen haben sie nicht mehr. Es wäre ungerecht, sie zur Verantwortung zu ziehen. Nehmen Sie zum Beispiel ein Marsmobil mit einer Fahr-Software, die ständig dazulernt und das Gerät dadurch immer besser manövrieren lässt. Wenn dieses Fahrzeug wegen gestörter Kommunikation mit der Erde in ein Loch fährt, würde man dafür doch nicht den Fahr-Software-Hersteller verantwortlich machen.

SPIEGEL ONLINE: Warum nicht? Man könnte ihm vorwerfen, eine schlechte Lern-Software geschrieben zu haben.

Matthias: Ich glaube nicht, dass man fordern kann, eine unfehlbare Maschine zu bauen. Auch wir Menschen machen Fehler, und wir müssen dafür die Verantwortung tragen. Diese Verantwortung können wir nicht abwälzen auf Lehrer oder Eltern, weil wir ab einem bestimmten Punkt im Leben eigenverantwortlich sind. So ist es auch bei der Maschine: Ab einem bestimmten Grad an eigener Entwicklung kann man nicht mehr sagen: der Hersteller ist verantwortlich. Denn diese Maschine ist nicht mehr dieselbe, die ausgeliefert wurde.

SPIEGEL ONLINE: Sie sprechen ständig von Verantwortung - wie soll eine Maschine die konkret übernehmen?

Matthias: Sie könnte für angerichtetes Unheil selbst aufkommen. Sie produziert ja als Arbeitnehmer einen Wert - ein Teil davon könnte an eine Versicherung fließen, die Schäden begleicht.

SPIEGEL ONLINE: Sie sprechen in Ihrer Dissertation auch von einem Strafrecht für Roboter. Wie bestraft man Roboter?

Matthias: Das geht. Die Strafe heißt Umprogrammierung.

SPIEGEL ONLINE: Das müssen Sie erklären.

Matthias: Hauptziele unseres Strafrechts sind erstens die Besserung des Täters und zweitens die Prävention. Um das bei Maschinen zu erreichen, muss man einfach ihren Code verbessern. Sie werden dann auf die Bestrafung sogar viel effizienter reagieren als Menschen. Niemand kann garantieren, dass ein verurteilter Straftäter nach fünf Jahren Gefängnis ein besserer Mensch ist. Aber eine umprogrammierte Maschine macht einen erkannten Fehler nicht noch einmal. Wir müssen Maschinen nicht einsperren - wir müssen nur ihre Software updaten.

SPIEGEL ONLINE: Glauben Sie, dass ein lernfähiger Roboter eines Tages den Status einer Person innehat?

Matthias: Denkbar. Menschen werden heute in ihrer Arbeit immer mehr reduziert auf ihre Funktion. Ob als Busfahrer oder Pilot, es geht nicht mehr darum, als Mensch präsent zu sein, sondern ums Funktionieren. Wir wollen zum Beispiel nicht, dass ein Pilot uns zuwinkt oder sagt, ob er glücklich ist - er soll uns von A nach B fliegen. Eigentlich ist er nur eine Erweiterung der Maschine Flugzeug. Im Bus rufen wir dem Fahrer nicht zu, dass wir aussteigen wollen, sondern drücken einen Knopf. Da ist es nur ein kleiner Schritt zum Autopiloten. Die Frage nach dem Personenstatus ist natürlich noch komplizierter und wird in meiner Dissertation ausführlich besprochen.

SPIEGEL ONLINE: Wenn Roboter Rechte bekommen: Dürfen Sie eines Tages auch wählen, und darf man sie überhaupt verschrotten?

Matthias: Diese Debatte ist verfrüht, weil sie das Problem in den Science-Fiction-Bereich rückt - wo es meiner Meinung nach nicht hingehört. Erst mal sollten wir beginnen, autonom agierenden Maschinen Verantwortung zuzuschreiben. Sie könnten eine bestimmte Verantwortung für bestimmte Handlungen übernehmen - und meine Dissertation sollte zeigen, dass das möglich ist. Inwieweit daraus Rechte abzuleiten sind, kann man später klären.

SPIEGEL ONLINE: Wie könnten diese Rechte konkret aussehen?

Matthias: Ich kann mir durchaus ein abgeleitetes Recht für Maschinen auf Reparatur und Wartung vorstellen. Man kann ja nicht die Maschine verkommen lassen und sie zugleich für Fehler verantwortlich machen. Bis wir aber über ein Recht auf Leben für Maschinen sprechen, ist es noch ein weiter Weg.

Das Interview führte Holger Dambeck.



Forum - Strafrecht für Maschinen?
insgesamt 136 Beiträge
Alle Kommentare öffnen
Seite 1
reuanmuc, 31.07.2008
1.
Zitat von sysopRoboter werden immer intelligenter und können lernen wie Menschen oder Tiere. Der Philosoph Andreas Matthias fordert deshalb eine Art Strafrecht für Maschinen: Müssen Roboter bald Verantwortung für Fehler übernehmen?
ABM für Philosophen?
Ty Coon, 31.07.2008
2.
Zitat von sysopRoboter werden immer intelligenter und können lernen wie Menschen oder Tiere. Der Philosoph Andreas Matthias fordert deshalb eine Art Strafrecht für Maschinen: Müssen Roboter bald Verantwortung für Fehler übernehmen?
Manche Philosophen haben einfach zuviel Zeit. Wie sollten wir Roboter denn bestrafen? Vielleicht einsperren? Zwangsabschalten? Da werden die Maschinen aber grollen.
Nachtschwester Ingeborg 31.07.2008
3.
Zitat von Ty CoonManche Philosophen haben einfach zuviel Zeit. Wie sollten wir Roboter denn bestrafen? Vielleicht einsperren? Zwangsabschalten? Da werden die Maschinen aber grollen.
Wichtig ist dabei doch, dass die Maschine durch die Strafe ein Unrechtsbewusstsein entwickelt und dadurch zur Reue fähig ist.
LurchiD 31.07.2008
4.
Zitat von Ty CoonManche Philosophen haben einfach zuviel Zeit. Wie sollten wir Roboter denn bestrafen? Vielleicht einsperren? Zwangsabschalten? Da werden die Maschinen aber grollen.
Sozialer Dienst ist die Lösung. Dann können bei der Alten- und Krankenpflege das Adaptive Kurvenlicht, die Bergabfahrhilfe, der Abstandswarner, die Berganfahrhilfe, der Spurwechselassistent, die Einparkhilfe, der Nachtsicht- und der Fernlichtassistent, die Traktionskontrolle und all die anderen Fahrerassistenzsysteme (http://de.wikipedia.org/wiki/Fahrerassistenzsystem) zerknirscht in sich gehen und sich überlegen, ob die Menschheit wirklich all dieses Schickschnackes bedarf.
de.nada 31.07.2008
5.
Zitat von Ty CoonManche Philosophen haben einfach zuviel Zeit. Wie sollten wir Roboter denn bestrafen? Vielleicht einsperren? Zwangsabschalten? Da werden die Maschinen aber grollen.
Zuviel Zeit haben diese Philosophen wohl eher nicht, sonst würden sie sich mal ein bisschen mehr mit Maschinenbau beschäftigen. In Deutschland und den meisten Länder dieser Welt gelten da strenge Richtlinien, bezüglich der Not-Aus Funktion. Das ist immer die wichtigste Betätigung an einer Maschine, noch wichtiger wie die Einschaltfunktion. Eine handbetätigte Zwangsabschaltung ist so ein Pilzförmiger Knopf, etwa Zigarettenschachtel groß und in den Signalfarben Rot/Gelb sehr leicht zu finden. Wir haben uns mit Arbeitskollegen schon kaputtgelacht wie das an ein einem echten Menschenroboter anzubringen sei, und die beste Stelle wird wohl die Stirn sein. Mit Frankreich, USA, Deutschland, England und Italien haben Leute die die Not-Aus Funktion umgehen wollen schwere Gegner in Sachen Maschinensicherheit. Da müssen sich Strafrechtler noch lange nicht damit beschäftigen. Für Philosophen und im politischen Sommerloch ein ganz gutes Thema. (Ich wollte nicht als erster schreiben ;))
Alle Kommentare öffnen
Seite 1
Diskussion geschlossen - lesen Sie die Beiträge! zum Forum...

© SPIEGEL ONLINE 2008
Alle Rechte vorbehalten
Vervielfältigung nur mit Genehmigung der SPIEGELnet GmbH


Die Homepage wurde aktualisiert. Jetzt aufrufen.
Hinweis nicht mehr anzeigen.