Maschinen und Moral Pentagon plant rücksichtsvolle Kampfroboter

Auf den Schlachtfeldern der Zukunft will die US-Armee autonom agierende Kampfroboter einsetzen. Um zu verhindern, dass Maschinen dabei Kriegsverbrechen begehen, zieht das Pentagon auch Philosophen zu Rate. Sie sollen herausfinden, ob Roboter nach ethischen Grundsätzen handeln können.

Hamburg - Die Mission ist extrem gefährlich, deshalb schickt der US-Offizier anstelle von Soldaten aus Fleisch und Blut Blechkameraden in den Einsatz. Vorsichtig nähern sich die zwei Roboter der feindlichen Stellung. Ein Dutzend Kämpfer soll sich dort befinden. Roboter eins entsichert das Maschinengewehr und nimmt den Ausgang ins Visier. Plötzlich erscheint eine Person, der Roboter drückt ab. Doch die Person war kein Terrorist, es handelte sich um eine unbeteiligte Frau. Ein weiterer Kollateralschaden im Kampf gegen den Terror - verursacht von einer Maschine.

Dieses Szenario ist fiktiv - doch im Pentagon hat das Nachdenken über die Risiken von Kampfrobotern eingesetzt. Können die Maschinen tatsächlich einen "sauberen Krieg" möglich machen, wie erwartet? Seit Jahren schon fliegen beispielsweise Drohnen militärische Angriffe und ersparen Piloten so Einsätze, von denen sie möglicherweise nicht zurückkehren könnten. Die Flugroboter handeln allerdings nicht vollkommen autonom - sie werden in der Regel ferngesteuert. Kritische Entscheidungen fällt immer noch der Mensch.

Das soll bei künftigen Kampfrobotern anders sein. Bereits heute gibt es Wachroboter, die stundenlang allein auf Streife sind, freilich ohne scharfe Waffen mitzuführen. Doch gerade im Kampf Mann gegen Mann, beim Stürmen eines Bunkers etwa, könnten Maschinen den Krieg vom Risiko des Todes befreien, hoffen US-Militärstrategen - zumindest für die eigenen Soldaten.

Was ist richtig, was ist falsch?

Um zu verhindern, dass die Blechkameraden zu Kriegsverbrechern werden, holen sich US Army und Navy Hilfe von Ethikexperten. Diese sollen helfen, den Killermaschinen ethische Grundsätze beizubringen, sofern dies möglich ist. "Es geht um die Frage, ob man automatische Kämpfer bauen kann, die sich an die Regeln des Krieges halten", sagte Colin Allen, Philosoph an der Indiana University, der britischen Zeitung "Telegraph". Allen hat zu dem Thema ein Buch veröffentlicht: "Moral Machines: Teaching Robots Right from Wrong".

Es gibt bereits wissenschaftliche Aufsätze zu dem Thema. Patrick Lin von der philosophischen Fakultät der California Polytechnic State University hat beispielsweise gemeinsam mit zwei Kollegen den Artikel "Autonomous Military Robotics: Risk, Ethics, and Design" verfasst. Lin hat zudem an einer Veröffentlichung über die Ethik von Nanotechnologie mitgearbeitet.

Vier Milliarden Dollar wollen die US-Militärs bis 2010 für die Entwicklung sogenannter autonomer Systeme ausgeben. Roboter kennen weder Stress, Trauer, noch Wut - Verfehlungen von Folter bis zu Racheaktionen, wie sie bei den US-Truppen immer wieder auftreten - sollen sie eines Tages verhindern. Aber kann dies wirklich gelingen?

Ronald Arkin glaubt, dass Roboter tatsächlich die besseren Kämpfer sein können. Der Roboterforscher an der Georgia Tech University hat im Auftrag der US Army das Problem von Ethik und Moral bei Maschinen untersucht. Sein Fazit: Roboter können ethischer handeln als Menschen. Roboter müssten sich nicht selbst schützen, sagte Arkin dem "Telegraph", sie könnten auch ohne Emotionen auskommen, die ihr Urteilsvermögen einschränkten. Aber auch von Robotern sei kein perfektes Verhalten auf dem Schlachtfeld zu erwarten.

Asimovs Robotergesetze

Die Debatte über moralisch handelnde Maschinen ist nicht neu: Bereits 1942 formulierte der Science-Fiction-Autor Isaac Asimov seine berühmten Robotergesetze:

  1. Ein Roboter darf keinem Menschen Schaden zufügen, auch nicht durch Nichtstun.
  2. Ein Roboter muss den Befehlen eines Menschen gehorchen, sofern dies nicht im Widerspruch zum ersten Gesetz steht.
  3. Ein Roboter muss sich selbst schützen, solange dies nicht den ersten beiden Gesetzen widerspricht.

Später verarbeitete Asimov die Regeln in seinen Erzählungen "Ich, der Roboter". Auch der Hollywoodfilm " I, Robot" greift das Thema auf.

Irrationale Ängste vor außer Kontrolle geratenen Killermaschinen hält der britische Philosoph Allen für unangebracht: "Die Roboter werden nicht die Macht übernehmen oder uns wahllos töten", schreibt er in seinem Blog , "aber sie werden in Positionen gelangen, wo sie Entscheidungen treffen müssen und es auf Ethik ankommt". Deshalb sei es wichtig, über ethische Fragen von intelligenten Maschinen nachzudenken.

Angesichts immer intelligenterer, selbstlernender Maschinen fordert der deutsche Philosoph Andreas Matthias sogar eine Art Strafrecht für Maschinen: Sie sollten für angerichtete Schäden geradestehen, sagte er im Interview mit SPIEGEL ONLINE. Insofern müssten auch Kampfroboter für Kollateralschäden haften.

Dass es nicht einfach ist, Robotern gutes Benehmen beizubringen, wissen Forscher schon länger. Erst vor wenigen Jahren haben kanadische Wissenschaftler eine Lösung für ein scheinbar banales Problem entwickelt: Wenn sich zwei Roboter zeitgleich an einer Tür treffen, welcher geht dann zuerst? Ein im Vergleich zu schwierigen Entscheidungen auf dem Schlachtfeld geradezu triviales Problem.

Die Wiedergabe wurde unterbrochen.