Die Homepage wurde aktualisiert. Jetzt aufrufen.
Hinweis nicht mehr anzeigen.

Maschinen und Moral: Pentagon plant rücksichtsvolle Kampfroboter

Von

Auf den Schlachtfeldern der Zukunft will die US-Armee autonom agierende Kampfroboter einsetzen. Um zu verhindern, dass Maschinen dabei Kriegsverbrechen begehen, zieht das Pentagon auch Philosophen zu Rate. Sie sollen herausfinden, ob Roboter nach ethischen Grundsätzen handeln können.

Hamburg - Die Mission ist extrem gefährlich, deshalb schickt der US-Offizier anstelle von Soldaten aus Fleisch und Blut Blechkameraden in den Einsatz. Vorsichtig nähern sich die zwei Roboter der feindlichen Stellung. Ein Dutzend Kämpfer soll sich dort befinden. Roboter eins entsichert das Maschinengewehr und nimmt den Ausgang ins Visier. Plötzlich erscheint eine Person, der Roboter drückt ab. Doch die Person war kein Terrorist, es handelte sich um eine unbeteiligte Frau. Ein weiterer Kollateralschaden im Kampf gegen den Terror - verursacht von einer Maschine.

Dieses Szenario ist fiktiv - doch im Pentagon hat das Nachdenken über die Risiken von Kampfrobotern eingesetzt. Können die Maschinen tatsächlich einen "sauberen Krieg" möglich machen, wie erwartet? Seit Jahren schon fliegen beispielsweise Drohnen militärische Angriffe und ersparen Piloten so Einsätze, von denen sie möglicherweise nicht zurückkehren könnten. Die Flugroboter handeln allerdings nicht vollkommen autonom - sie werden in der Regel ferngesteuert. Kritische Entscheidungen fällt immer noch der Mensch.

Das soll bei künftigen Kampfrobotern anders sein. Bereits heute gibt es Wachroboter, die stundenlang allein auf Streife sind, freilich ohne scharfe Waffen mitzuführen. Doch gerade im Kampf Mann gegen Mann, beim Stürmen eines Bunkers etwa, könnten Maschinen den Krieg vom Risiko des Todes befreien, hoffen US-Militärstrategen - zumindest für die eigenen Soldaten.

Was ist richtig, was ist falsch?

Um zu verhindern, dass die Blechkameraden zu Kriegsverbrechern werden, holen sich US Army und Navy Hilfe von Ethikexperten. Diese sollen helfen, den Killermaschinen ethische Grundsätze beizubringen, sofern dies möglich ist. "Es geht um die Frage, ob man automatische Kämpfer bauen kann, die sich an die Regeln des Krieges halten", sagte Colin Allen, Philosoph an der Indiana University, der britischen Zeitung "Telegraph". Allen hat zu dem Thema ein Buch veröffentlicht: "Moral Machines: Teaching Robots Right from Wrong".

Es gibt bereits wissenschaftliche Aufsätze zu dem Thema. Patrick Lin von der philosophischen Fakultät der California Polytechnic State University hat beispielsweise gemeinsam mit zwei Kollegen den Artikel "Autonomous Military Robotics: Risk, Ethics, and Design" verfasst. Lin hat zudem an einer Veröffentlichung über die Ethik von Nanotechnologie mitgearbeitet.

Vier Milliarden Dollar wollen die US-Militärs bis 2010 für die Entwicklung sogenannter autonomer Systeme ausgeben. Roboter kennen weder Stress, Trauer, noch Wut - Verfehlungen von Folter bis zu Racheaktionen, wie sie bei den US-Truppen immer wieder auftreten - sollen sie eines Tages verhindern. Aber kann dies wirklich gelingen?

Ronald Arkin glaubt, dass Roboter tatsächlich die besseren Kämpfer sein können. Der Roboterforscher an der Georgia Tech University hat im Auftrag der US Army das Problem von Ethik und Moral bei Maschinen untersucht. Sein Fazit: Roboter können ethischer handeln als Menschen. Roboter müssten sich nicht selbst schützen, sagte Arkin dem "Telegraph", sie könnten auch ohne Emotionen auskommen, die ihr Urteilsvermögen einschränkten. Aber auch von Robotern sei kein perfektes Verhalten auf dem Schlachtfeld zu erwarten.

Asimovs Robotergesetze

Die Debatte über moralisch handelnde Maschinen ist nicht neu: Bereits 1942 formulierte der Science-Fiction-Autor Isaac Asimov seine berühmten Robotergesetze:

  1. Ein Roboter darf keinem Menschen Schaden zufügen, auch nicht durch Nichtstun.
  2. Ein Roboter muss den Befehlen eines Menschen gehorchen, sofern dies nicht im Widerspruch zum ersten Gesetz steht.
  3. Ein Roboter muss sich selbst schützen, solange dies nicht den ersten beiden Gesetzen widerspricht.

Später verarbeitete Asimov die Regeln in seinen Erzählungen "Ich, der Roboter". Auch der Hollywoodfilm " I, Robot" greift das Thema auf.

Irrationale Ängste vor außer Kontrolle geratenen Killermaschinen hält der britische Philosoph Allen für unangebracht: "Die Roboter werden nicht die Macht übernehmen oder uns wahllos töten", schreibt er in seinem Blog, "aber sie werden in Positionen gelangen, wo sie Entscheidungen treffen müssen und es auf Ethik ankommt". Deshalb sei es wichtig, über ethische Fragen von intelligenten Maschinen nachzudenken.

Angesichts immer intelligenterer, selbstlernender Maschinen fordert der deutsche Philosoph Andreas Matthias sogar eine Art Strafrecht für Maschinen: Sie sollten für angerichtete Schäden geradestehen, sagte er im Interview mit SPIEGEL ONLINE. Insofern müssten auch Kampfroboter für Kollateralschäden haften.

Dass es nicht einfach ist, Robotern gutes Benehmen beizubringen, wissen Forscher schon länger. Erst vor wenigen Jahren haben kanadische Wissenschaftler eine Lösung für ein scheinbar banales Problem entwickelt: Wenn sich zwei Roboter zeitgleich an einer Tür treffen, welcher geht dann zuerst? Ein im Vergleich zu schwierigen Entscheidungen auf dem Schlachtfeld geradezu triviales Problem.

Diesen Artikel...
Forum - Kampfroboter mit Anstand - der "saubere" Krieg der Zukunft?
insgesamt 92 Beiträge
Alle Kommentare öffnen
    Seite 1    
1.
Robert Rostock, 02.12.2008
Wenn auf der Gegenseite auch nur Kampfroboter antreten, hätte ich gar nichts dagegen. Stanislaw Lem hat schon vor vielen Jahren in einem seiner Bücher ein entsprechendes Szenarium durchgespielt. Er stellte (mit Recht) die Frage, wie groß unbemannte Kampfmaschinen sein müssen, und kam zu der Schlussfolgerung, dass auch auf diesem Gebiet die Miniaturisierung Einzug halten wird und die Kampfmaschinen früher oder später auf Mücken- oder Bakterienformat schrumpfen werden... Muss mal das Buch raussuchen.
2.
nboehme 02.12.2008
das Thema ist an sich schon lächerlich, eine Maschine könnte genauso wenig einen "sauberen Krieg" führen wie ein Mensch. Fraglich ist schon generell ob es einen "sauberen Krieg" geben kann. Edit: Wenn ich da jetzt nochmal drüber lese finde ich das fraglich schon ziemlich fraglich ...
3.
mbberlin, 02.12.2008
Zitat von sysopAuf den Schlachtfeldern der Zukunft will die US-Armee autonom agierende Kampfroboter einsetzen. Um zu verhindern, dass Maschinen dabei Kriegsverbrechen begehen, zieht das Pentagon auch Philosophen zu Rate. Gibt es den "Kampfroboter mit Anstand"? Der Artikel zum Thema: http://www.spiegel.de/wissenschaft/mensch/0,1518,593967,00.html
Was für ein Schwachsinn! Ein Roboter könnte maximal so "anständig" sein, wie sein Entwickler, sofern dass die Technik irgendwann einmal zulässt. Wie soll ein Roboter zwischen Freund, Feind und Nichtkombattant entscheiden? Anhand welcher Parameter? Der Freund kann theoretisch mittels IFF-Verfahren (Identification friend or foe) erkannt werden, wie das bei Flugzeugen bereits seit langem Standard ist. Wird der Sender jedoch gestohlen, ist er defekt oder wechselt der Träger die Fronten, ist es damit vorbei. Wird der Sender kopiert, bzw. simuliert, funktioniert es auch nicht. Um einen Feind also eindeutig zu identifizieren, müsste sich dieser zweifelsfrei zu erkennen geben oder chemisch, biologisch oder physikalisch markiert werden. Und das geht wieder nicht ohne menschliche Vorberitung und Kontrolle. Als Aufklärungswerkzeug oder ferngesteuertes Gerät ist das sicher eine sinnvolle Sache. Ansonsten unverantwortbar. Phalanx CIWS z.B. sind ein existenter Schritt in diese vollautomatisierte Richtung. Wie das in einem unübersichtichen Gefechtsfeld tatsächlich funktioniert, ist mangels prakischer Erfahrungen vollig unklar. Einmal aktiviert, ballert das Ding völlig autark (!) solange auf alle nicht identifizierten Ziele, bis die Munition alle ist. http://de.youtube.com/watch?v=vH5RVTS4QxA
4.
mbberlin, 02.12.2008
Zitat von Robert RostockWenn auf der Gegenseite auch nur Kampfroboter antreten, hätte ich gar nichts dagegen. Stanislaw Lem hat schon vor vielen Jahren in einem seiner Bücher ein entsprechendes Szenarium durchgespielt. Er stellte (mit Recht) die Frage, wie groß unbemannte Kampfmaschinen sein müssen, und kam zu der Schlussfolgerung, dass auch auf diesem Gebiet die Miniaturisierung Einzug halten wird und die Kampfmaschinen früher oder später auf Mücken- oder Bakterienformat schrumpfen werden... Muss mal das Buch raussuchen.
Lassen Sie das Buch ruhig da, wo es ist. Was bitte kommt bei einem Krieg heraus, in dem sich Maschinen lediglich gegenseitig bekämpfen? Da ist eine Runde Schach sinnvoller und billiger. Oder gleich eine Münze werfen. Kriege werden geführt, um Land zu erobern, Eroberer zu vertreiben oder die gegnerische Politik nieder zu werfen. Meinen Sie, Hitler hätte bei einer Niederlage in einem fiktiven Maschinenkrieg gesagt "Schade, verloren!" und der Konflikt wäre damit beendet gewesen? Notfalls würden die Parteien mit Knüppeln, Speeren und Steinen aufeinander losgehen, wenn die Waffen zerstört wären. Auch mit bloßen Händen! Das würde die Auswirkungen zwar deutlich begrenzen, aber das Problem des Krieges wäre damit nicht gelöst.
5. Terminator Reloaded
rickyshand, 02.12.2008
Wie wäre es denn, die Roboter mit Geschützen auszurüsten, aus deren Mündung bei Bedarf ein Fähnchen mit der Aufschrift "Peng!" hervorkommt? Nix da - ich plädiere für eine Armee gnadenloser Terminatoren! Damit es mal vorangeht mit der Menschheit ...
Alle Kommentare öffnen
    Seite 1    
Diskussion geschlossen - lesen Sie die Beiträge! zum Forum...

© SPIEGEL ONLINE 2008
Alle Rechte vorbehalten
Vervielfältigung nur mit Genehmigung der SPIEGELnet GmbH




Fotostrecke
Roboter: Die ethischen Krieger?
Fotostrecke
"Swords"-System: Rollende Killer für den Irak


SPIEGEL.TV
Der kompakte Nachrichtenüberblick am Morgen: aktuell und meinungsstark. Jeden Morgen (werktags) um 6 Uhr. Bestellen Sie direkt hier: