Künstliche Intelligenz Autonome Waffen außer Kontrolle

Schon bald könnten autonome Waffen Kriege entscheiden. Ausgerechnet Forscher, die die technischen Grundlagen dafür mit entwickelt haben, wollen das verhindern.

Drohne (künstlerische Darstellung)
Getty Images

Drohne (künstlerische Darstellung)

Aus Washington berichtet


Womöglich hat das neue Wettrüsten bereits begonnen. Seit Jahren übertreffen sich China und die USA mit Plänen, wie sie Vorreiter auf dem Gebiet der Künstlichen Intelligenz (KI) werden wollen. Das allein wäre vielleicht unproblematisch. Ein Teil der angekündigten Investitionen dürfte aber in autonome Waffen fließen - auch bekannt als Killerroboter.

Zuletzt hat Donald Trump am 11. Februar ein Dekret erlassen, das die Führungsrolle der USA auf dem Forschungsfeld sicherstellen soll. Nur einen Tag später erklärte das US-Verteidigungsministerium in einem Bericht, dass Künstliche Intelligenz in den USA genutzt werden solle, um die Bürger und das Land zu schützen. Autonome Waffen könnten Teil dieser Strategie sein.

Maschinen entscheiden über Leben und Tod

"Es geht hier nicht um eine verrückte, unrealistische Terminator-Fantasie", sagte KI-Forscher Toby Walsh von der australischen University of New South Wales vor wenigen Tagen auf der Wissenschaftskonferenz AAAS in Washington. "Die Waffen wird es in absehbarer Zeit geben. Wir sollten uns gut überlegen, ob wir sie über Leben und Tod entscheiden lassen wollen."

Im Gegensatz zu ferngesteuerten Drohnen, die jetzt schon in Kriegsgebieten im Einsatz sind, arbeiten autonome Waffen ganz ohne menschliche Steuerung. Einfache Varianten gibt es schon - etwa Selbstschussanlagen, die von allein auslösen, wenn eine Person verbotenes Gebiet betritt. Künftig könnten autonome Waffen aber auch in deutlich komplexeren Kriegssituationen entscheiden, wen sie in welcher Form angreifen. Experten sprechen von der dritten großen Revolution der Kriegsführung - nach der Erfindung von Schießpulver und Atomwaffen.

"Kriege sind das genaue Gegenteil von vorhersehbar"

Autonome Schiffe, Panzer oder Flugzeuge erfassen ihre Umwelt mithilfe von Sensoren - viele davon sind heute bereits in Smartphones verbaut. Ein Algorithmus ordnet die Daten dann in zuvor Erlerntes ein und entscheidet, ob und wohin geschossen werden soll. "Wir haben die Technologie, um autonome Waffen zu bauen", erklärte Walsh. "Ich bezweifele aber, dass diese auch in der Lage wären, komplizierte ethische Entscheidungen im Krieg zu treffen."

Wissenschaftler, die an KI forschen, haben Sorge, dass die Waffen ihre gesamte Branche in Verruf bringen könnten. So haben sich etwa die Gründer von Google-Deepmind, der KI-Sparte des Unternehmens, und der Investor Elon Musk verpflichtet, sich nicht an der Entwicklung beteiligen zu wollen und bereits 2017 gemeinsam mit mehr als hundert anderen Forschern und Unternehmern ein Verbot gefordert. Ausgerechnet diejenigen, die die Entwicklung autonomer Waffen erst möglich gemacht haben, wollen nun also, dass sie verboten werden.

"Künstliche Intelligenz ist nicht per se gefährlich", erklärte der Technikchef des kanadischen Unternehmens Clearpath Robotic, Ryan Gariepy, das sich ebenfalls für ein Verbot von Killerrobotern einsetzt. "In Laboren und Fabriken, wo bereits Roboter arbeiten, sind die meisten Abläufe vorhersehbar und die Technik dadurch sicher. Das Problem ist: Kriege sind das genaue Gegenteil von vorhersehbar."

Ein paar Leute könnten riesige Roboterarmeen erschaffen

Geht es nach den Befürwortern autonomer Waffen, sollen diese Soldaten künftig in besonders gefährliche Regionen begleiten und entlasten. Viele Soldaten sind da allerdings skeptisch (siehe Video unten). Außerdem erhoffen sich manche Staaten, durch den technologischen Vorsprung Auseinandersetzungen zu ihren Gunsten entscheiden zu können.

Video zu Killerrobotern: "Auch das Militär ist skeptisch"

Kalashnikov Media;Spiegel Online

Wer über autonome Waffen verfügt, kann mit wenig Personal eine theoretisch unbegrenzte Menge Roboter in den Krieg schicken. "Befürworter autonomer Waffen sagen, wir sollten die Technik gerade deshalb nutzen - bevor es jemand anderes tut", so Walsh. "Das ist für mich aber kein Argument." Seien autonome Waffen erst einmal verbreitet, kämen Extremisten leichter an sie heran, argumentiert er.

Laut Walsh gilt es nun, möglichst viele Staaten davon zu überzeugen, ein Übereinkommen zum Verbot autonomer Waffen abzuschließen - ähnlich der Chemiewaffenkonvention der Vereinten Nationen (Uno). "Wir können zwar trotzdem nicht komplett verhindern, dass etwa Giftgas eingesetzt wird", sagt er. "Aber wenn es passiert, steht es auf den Titelseiten, es gibt Sanktionen und Kontrollen. Wir brauchen diese breite gesellschaftliche Ächtung auch für autonome Waffen."

Eine Frage der Verantwortung

Bislang blockieren unter anderem die USA, Russland, Großbritannien, Australien, Südkorea und Israel die Verhandlungen der Uno über Regeln für den Einsatz der Waffen. Dem gegenüber stehen 28 Staaten, die sich für ein umfassendes Verbot von KI in Waffen ausgesprochen haben - darunter vor allem Länder aus Südamerika und Afrika. Aus Europa ist nur Österreich vertreten.

Deutschland und Frankreich setzen sich für einen Verhaltenskodex ein, der vorschreibt, dass alle Waffensysteme menschlicher Kontrolle unterliegen müssen. Ferngesteuerte Drohnen wären demnach erlaubt, vollautonome Waffen nicht.

"Kommen vollautonome Waffen zum Einsatz und geht dabei etwas schief, lässt sich im Nachhinein nicht mal mehr sagen, wer dafür nun verantwortlich ist", sagte Mary Wareham von Human Rights Watch. Weil die genutzte Software aus ihren Erfahrungen lernt, entzieht sich ihr Verhalten in Teilen selbst der Kontrolle der Entwickler.



insgesamt 73 Beiträge
Alle Kommentare öffnen
Seite 1
basileus97 24.02.2019
1. Vereinte Nationen
Wie bei allen Waffen und Waffensystemen wird es Zeit Regeln für die autonome Kriegsführung festzulegen um dystopische Szenarien zu verhindern.
josho 24.02.2019
2. Na, das ist doch schon mal was!
Jetzt brauchen wir nur noch Maschinen, die darüber entscheiden, wer mit wem und warum Kriege geführt werden! Dann kann sich die Menschheit bequem zurücklehnen...
zauberer2112 24.02.2019
3. Wargames
Ich empfehle diesen Film aus den frühen 80ern und hoffe, dass weder Cyberdyne noch Skynet mit KI-Waffen zu tun haben. Da war Cameron mit "Terminator" 1984 seiner Zeit weit voraus, aber schon als "Terminator 2" gedreht wurde, war Kriegsführung durch KI keine Utopie mehr. Heute kommt es nur noch auf die Präzision, Wucht und v.a. eines an: Wer macht den ersten Schritt?
Spiegulant 24.02.2019
4. Tolle Erfindung
Am besten wäre es, diese künstliche Intelligenz so zu programmieren, jegliches menschliche Leben in Sicht- und Spähweite zu töten. Nicht viel anders arbeiten im Endeffekt ja auch die normalen Waffen, Bomben, Minen, Atombomben. Außerdem käme eine derartige Waffe dem normalen Kriegsziel, möglichst viele Menschen, auch und gerade Zivilisten zu töten, um das Bevölkerungswachstum umzukehren, sehr entgegen.
heinrich.busch 24.02.2019
5. Die Optionen heissen
geht das? Wieviel Profit kann ich erzielen und kann ich diesen durch Gewinn an Menschenmaterial und Territorien inklusive Bodenschätzen steigern. 3 Mal ja und es wird genau so passieren. Gerade da hat der KM sooooo Recht!
Alle Kommentare öffnen
Seite 1

© SPIEGEL ONLINE 2019
Alle Rechte vorbehalten
Vervielfältigung nur mit Genehmigung


TOP
Die Homepage wurde aktualisiert. Jetzt aufrufen.
Hinweis nicht mehr anzeigen.