Denkende Waffen Künstliche-Intelligenz-Forscher warnen vor künstlicher Intelligenz

Killer-Roboter klingen mehr nach Hollywood als nach einer akuten Bedrohung der Menschheit. Doch jetzt warnen mehr als tausend Experten für künstliche Intelligenz: Autonome Waffensysteme könnten bald das werden, "was Kalaschnikows heute sind".

Rheinmetall Air Defence AG

Von


Eine Grundvoraussetzung erfolgreicher Science-Fiction ist es, den Debatten ihrer Zeit voraus zu sein. Der Schriftsteller Daniel Suarez, einst erfolgreicher Softwareentwickler, ist so ein Debattenvorausseher.

Mit "Daemon" hat er den Thriller geschrieben, der die aktuelle Diskussion über die möglichen Gefahren künstlicher Intelligenz vorwegnimmt. Und mit "Kill Decision" ein Buch über die Frage, was passiert, wenn man Waffen das Denken erlaubt. "Kill Decision" ist ein Reißer, voll mit irrwitzigen Actionsequenzen und mit einer schwer erträglichen Liebesgeschichte. Aber die Drohnen, die sich darin selbstständig machen und gegen die Menschheit erheben, sind ein aufmerksamkeitsstarkes Menetekel.

Jetzt hat wieder jemand über solche autonomen Waffen geschrieben, in nüchternen Worten, aber mit einem Szenario, das dem von Suarez nicht unähnlich ist: Von "bewaffneten Quadcoptern" ist da die Rede, die "nach vordefinierten Kriterien Menschen suchen und eliminieren können". Unterschrieben haben die Warnung intellektuelle Leitfiguren wie Stephen Hawking, Noam Chomsky und der Philosoph Daniel C. Dennett - und mehr als tausend der renommiertesten Forscher im Bereich künstliche Intelligenz.

Renommierte KI-Forscher haben unterschrieben

Vorgestellt wurde der offene Brief jetzt in Buenos Aires. Dort findet derzeit eine Konferenz über künstliche Intelligenz statt, Wissenschaftler und Softwareentwickler tauschen sich über die Möglichkeiten autonomer Systeme aus. Mitinitiator des Briefes ist auch Tesla-Gründer Elon Musk, der sich zu einem der prominentesten Mahner in Sachen künstliche Intelligenz (KI) entwickelt hat. Auch Apple-Mitgründer Steve Wozniak und der Chef des kürzlich von Google aufgekauften KI-Unternehmens Deepmind, Demis Hassabis, haben unterschrieben - und Science-Fiction-Autor Suarez.

Hassabis ist einer derjenigen, die die derzeitige KI-Revolution selbst massiv vorantreiben. Mit Elon Musk ist er beileibe nicht immer einer Meinung, aber mit Blick auf denkende Waffen können sich die beiden offenbar einigen.

In dem Brief wird eindringlich davor gewarnt, Waffensysteme zu entwickeln, die selbstständige Entscheidungen treffen können:

"KI-Technologie hat einen Punkt erreicht, an dem der Einsatz autonomer Waffensysteme - praktisch, wenn auch nicht rechtlich - innerhalb von Jahren, nicht von Jahrzehnten, möglich ist, und die Risiken sind hoch: Autonome Waffen sind als die dritte Revolution der Kriegführung nach Schießpulver und Nuklearwaffen beschrieben worden."

Der Brief warnt vor einer Zukunft, in der autonome Waffensysteme so allgegenwärtig sein könnten wie heute Kalaschnikow-Sturmgewehre, weil sie eines Tages viel einfacher herzustellen sein würden als etwa Atomwaffen. Denn für die braucht man bestimmte, seltene Materialien, für Killerdrohnen nur Komponenten, die man zum Teil schon heute einfach online bestellen kann.

Autonome Waffen: Roboter mit Kanonen

"Mantis"-Waffensystem von Rheinmetall: Der Hersteller bezeichnet dieses Modell als Nächstbereichsschutzsystem. Es kann nicht nur Flugzeuge und Hubschrauber beschießen, sondern soll auch Raketen, Artilleriegeschosse und Granaten abschießen können. Gedacht sind diese Waffen laut Rheinmetall etwa für "den Schutz von Feldlagern oder zur Sicherung von Einrichtungen und Objekten gegen terroristische Angriffe". Sie können Ziele automatisiert erfassen und beschießen.

Wachroboter "Security Guard Robot 1" ("SGR-1") in Südkorea: Der Roboter, der mit einem Maschinengewehr ausgestattet ist, soll potenzielle Eindringlinge an der Grenze zu Nordkorea entdecken und bei Bedarf töten können. Am Ende soll aber immer ein Mensch entscheiden, ob der Roboter nun schießt oder nicht.

"Guardium"-Fahrzeug von G-NIUS Unmanned Ground Systems: Dieses Roboterauto soll die Grenze zwischen Israel und dem Gazastreifen bewachen. Nach Angaben der israelischen Armee könnte das Fahrzeug bei Bedarf auch "autonom reagieren" und "verschiedene gewaltsame Methoden anwenden, um die Bedrohung zu eliminieren".

MQ-1 Predator: Diese Kampfdrohnen sind die derzeit wohl am stärksten verbreiteten teilautonomen Waffensysteme. Die USA setzen sie ein, etwa um im Grenzgebiet zwischen Afghanistan und Pakistan Jagd auf mutmaßliche Qaida-Terroristen zu machen.

Blick durch das Auge der Drohne: Dies ist die Perspektive eines Piloten, der aus der Ferne eine MQ9-Reaper-Drohne fernsteuert. Vollkommen selbstständig fliegen können die Reaper- und Predator-Drohnen der USA bislang nicht. Experten warnen aber, dass auch autonome fliegende Waffensysteme längst im Bereich des Möglichen liegen.

Dohnen-Steuerzentrale in Indian Springs, Nevada: Noch werden teilautonome Waffensysteme von Menschen überwacht oder gesteuert. Doch viele Wissenschaftler warnen mittlerweile vor Systemen, die selbstständig Ziele auswählen und angreifen könnten.

UCAV Harop Drohne des israelischen Herstellers IAI: Dieses Waffensystem soll im Luftraum über einem Zielgebiet "herumhängen" (loitering weapon) und sich dann auf Kommando auf ein zuvor bestimmtes Ziel stürzen. Die Drohne kann Ziele selbständig erkennen und angreifen, soll aber immer von menschlichem Bedienpersonal überwacht werden, das einen Angriff bei Bedarf jederzeit abbrechen kann, "um Kollateralschäden zu vermeiden", wie es der Hersteller formuliert.

Der Brief ist nicht der erste derartige Aufruf, doch die Unterzeichnerliste ist diesmal besonders lang und eindrucksvoll. Hunderte der namhaftesten KI-Forscher stehen darauf, auch zahlreiche deutsche Wissenschaftler sind dabei. Zusammengetrommelt hat die Mahner das sogenannte Future of Life Institute, eine Forschungs- und Lobbyorganisation mit dem Ziel, vor den Gefahren unkontrollierter künstlicher Intelligenz zu warnen. Das FLI hat, auch damals schon unterstützt von Musk und Hawking, schon einmal einen offenen Brief initiiert, in dem unter anderem vor autonomen Waffensystemen gewarnt wird.

Zumindest teilautonome Waffensysteme sind derzeit nicht nur in der Entwicklung, sondern auch längst im Einsatz: An der Grenze zwischen Nord- und Südkorea stehen ferngesteuerte "Security Guard Robots" mit Maschinengewehren, israelische "Harpy"-Drohnen können feindliche Radarstellungen erfassen und sogar selbstständig angreifen. Das "NBS Mantis"-System des deutschen Rüstungsunternehmens Rheinmetall kann automatisch Ziele erfassen und beschießen, "der Benutzer muss das nur überwachen". "Mantis" soll so aber vorrangig Granaten oder Raketen aus der Luft holen.

"Diese Waffensysteme besitzen einen hohen Grad von Autonomie, weil sie mit minimalem menschlichem Input Ziele erkennen und angreifen können", warnte schon ein Bericht von Human Rights Watch (PDF) aus dem Jahr 2012. Uno-Sonderberichterstatter Philip Alston mahnte in einem Bericht schon 2010 davor, "Roboter zu bauen, die ohne direkte Autorisierung oder Kontrolle eines Menschen töten können". Sogar eine von diversen Organisationen geförderte "Kampagne zum Stoppen von Killerrobotern" gibt es bereits.

Die Unterzeichner des neuen offenen Briefes betonen, dass sie "glauben, dass KI großes Potenzial hat, der Menschheit in vieler Hinsicht zu nützen". Es sei jedoch "ein schlechter Einfall, ein militärisches KI-Wettrüsten zu beginnen". Sie fordern deshalb "Verbot offensiver, autonomer Waffensysteme ohne ernst zu nehmende menschliche Kontrolle".

Forum - Diskutieren Sie über diesen Artikel
insgesamt 158 Beiträge
Alle Kommentare öffnen
Seite 1
Leser161 28.07.2015
1. Gibs schon
Anhand Metadaten (Wer hat mit wem telefoniert) entscheiden Algorithmen, wer ein Terrorist ist. Eine menschliche Abwägung findet hier nicht statt, den welcher normaldenkende Mensch würde jemand anders, weil er die falschen Leute angerufen hat zum Tode verurteilen? Der Agorithmus sagt "Er ist ein Terrorist" und der Mensch sagt, "Ja wenn er ein terrorist ist, dann muss er sterben". Ob er jetzt wirklich ein Terrorist ist, wird nicht hinterfragt. Denn der Algorithmus hat es ja gesagt. Ergo, könnte ich den Menschen auch weglassen und direkt die Drohnen auf die Jagd schicken.
SarahMue 28.07.2015
2. Die Büchse der Pandora
Diese Warnung sollte man sehr ernst nehmen. Nicht nur die KI entwickelt in einer enormen Geschwindigkeit sondern auch Drohnen und andere Systeme die sich problemlos zu Waffen umrüsten lassen. Sobald ein Staat mit dem Einsatz beginnt, wird ein Rüstungswettlauf losgetreten. An dieser Rüstung können sich nur Staaten beteiligen sondern auch radikale Einzelpersonen mit sehr wenig Geld. Der Angreifer der sich dieser autonomen Systeme bedient wird nur in den seltesten Fällen zu ermitteln sein. Daher ist schon der erste Schritt in diese Richtung ein großer Fehler. Hier ein Podcast der das Thema aufgegriffen hat: http://alternativlos.org/27/
Untertan 2.0 28.07.2015
3. Dieses Thema braucht mehr Aufmerksamkeit
Inzwischen gibt es selbstfahrende Autos, da sind selbstschießende Drohnen kein wirkliches Problem mehr. Es wäre zu begrüßen, wenn die Länder mit den größten Rüstungs-Budgets, allen voran die USA sich hier auf Regeln einigen würden.
forumgehts? 28.07.2015
4. Das
wird aber erst richtig interessant, wenn diese Waffensysteme gehackt und so programmiert werden, dass sie auf Knopfdruck Amok laufen. Was machbar ist wird auch gemacht, eine schöne Zukunft wnsche ich noch!
mac4me 28.07.2015
5. Was technisch möglich ist...
...wird auch irgendwann gemacht, iwenn es ein Geschäft verspricht. Leider ist, gesamtgesellschaftlich gesehen, Moral nur ein Herrschaftsinstrument. Es sieht so aus, daß die Horror-SciFi-Szenarien wahr werden. Es wird Terror und auch Kriege geben mit autonomen Waffen, die schon bald eingesetzt werden. Ebenso denkbar ist, daß sich die wehrhafte KI gegen ihre Schöpfer wendet. Das mag irreal klingen, aber wir stehen erst am Anfang der technischen Entwicklung. Vor diesem Hintergrund ist der Warnapell aller Ehren wert, aber sicherlich so wirkungsvoll wie die Sonntagsrede eines Politikers.
Alle Kommentare öffnen
Seite 1

© SPIEGEL ONLINE 2015
Alle Rechte vorbehalten
Vervielfältigung nur mit Genehmigung der SPIEGELnet GmbH


TOP
Die Homepage wurde aktualisiert. Jetzt aufrufen.
Hinweis nicht mehr anzeigen.