Fotostrecke

Autonome Waffen: Roboter mit Kanonen

Foto: Rheinmetall Air Defence AG

Denkende Waffen Künstliche-Intelligenz-Forscher warnen vor künstlicher Intelligenz

Killer-Roboter klingen mehr nach Hollywood als nach einer akuten Bedrohung der Menschheit. Doch jetzt warnen mehr als tausend Experten für künstliche Intelligenz: Autonome Waffensysteme könnten bald das werden, "was Kalaschnikows heute sind".

Eine Grundvoraussetzung erfolgreicher Science-Fiction ist es, den Debatten ihrer Zeit voraus zu sein. Der Schriftsteller Daniel Suarez, einst erfolgreicher Softwareentwickler, ist so ein Debattenvorausseher.

Mit "Daemon" hat er den Thriller geschrieben, der die aktuelle Diskussion über die möglichen Gefahren künstlicher Intelligenz vorwegnimmt. Und mit "Kill Decision" ein Buch über die Frage, was passiert, wenn man Waffen das Denken erlaubt. "Kill Decision" ist ein Reißer, voll mit irrwitzigen Actionsequenzen und mit einer schwer erträglichen Liebesgeschichte. Aber die Drohnen, die sich darin selbstständig machen und gegen die Menschheit erheben, sind ein aufmerksamkeitsstarkes Menetekel.

Jetzt hat wieder jemand über solche autonomen Waffen geschrieben, in nüchternen Worten, aber mit einem Szenario, das dem von Suarez nicht unähnlich ist: Von "bewaffneten Quadcoptern" ist da die Rede, die "nach vordefinierten Kriterien Menschen suchen und eliminieren können". Unterschrieben haben die Warnung intellektuelle Leitfiguren wie Stephen Hawking, Noam Chomsky und der Philosoph Daniel C. Dennett - und mehr als tausend der renommiertesten Forscher im Bereich künstliche Intelligenz.

Renommierte KI-Forscher haben unterschrieben

Vorgestellt wurde der offene Brief jetzt in Buenos Aires. Dort findet derzeit eine Konferenz über künstliche Intelligenz statt, Wissenschaftler und Softwareentwickler tauschen sich über die Möglichkeiten autonomer Systeme aus. Mitinitiator des Briefes ist auch Tesla-Gründer Elon Musk, der sich zu einem der prominentesten Mahner in Sachen künstliche Intelligenz (KI) entwickelt hat. Auch Apple-Mitgründer Steve Wozniak und der Chef des kürzlich von Google aufgekauften KI-Unternehmens Deepmind, Demis Hassabis, haben unterschrieben - und Science-Fiction-Autor Suarez.

Hassabis ist einer derjenigen, die die derzeitige KI-Revolution selbst massiv vorantreiben. Mit Elon Musk ist er beileibe nicht immer einer Meinung , aber mit Blick auf denkende Waffen können sich die beiden offenbar einigen.

In dem Brief wird eindringlich davor gewarnt , Waffensysteme zu entwickeln, die selbstständige Entscheidungen treffen können:

"KI-Technologie hat einen Punkt erreicht, an dem der Einsatz autonomer Waffensysteme - praktisch, wenn auch nicht rechtlich - innerhalb von Jahren, nicht von Jahrzehnten, möglich ist, und die Risiken sind hoch: Autonome Waffen sind als die dritte Revolution der Kriegführung nach Schießpulver und Nuklearwaffen beschrieben worden."

Der Brief warnt vor einer Zukunft, in der autonome Waffensysteme so allgegenwärtig sein könnten wie heute Kalaschnikow-Sturmgewehre, weil sie eines Tages viel einfacher herzustellen sein würden als etwa Atomwaffen. Denn für die braucht man bestimmte, seltene Materialien, für Killerdrohnen nur Komponenten, die man zum Teil schon heute einfach online bestellen kann.

Der Brief ist nicht der erste derartige Aufruf, doch die Unterzeichnerliste ist diesmal besonders lang und eindrucksvoll . Hunderte der namhaftesten KI-Forscher stehen darauf, auch zahlreiche deutsche Wissenschaftler sind dabei. Zusammengetrommelt hat die Mahner das sogenannte Future of Life Institute, eine Forschungs- und Lobbyorganisation mit dem Ziel, vor den Gefahren unkontrollierter künstlicher Intelligenz zu warnen. Das FLI hat, auch damals schon unterstützt von Musk und Hawking, schon einmal einen offenen Brief initiiert, in dem unter anderem vor autonomen Waffensystemen gewarnt wird.

Zumindest teilautonome Waffensysteme sind derzeit nicht nur in der Entwicklung, sondern auch längst im Einsatz: An der Grenze zwischen Nord- und Südkorea stehen ferngesteuerte "Security Guard Robots" mit Maschinengewehren, israelische "Harpy"-Drohnen können feindliche Radarstellungen erfassen und sogar selbstständig angreifen. Das "NBS Mantis"-System des deutschen Rüstungsunternehmens Rheinmetall kann automatisch Ziele erfassen und beschießen , "der Benutzer muss das nur überwachen". "Mantis" soll so aber vorrangig Granaten oder Raketen aus der Luft holen.

"Diese Waffensysteme besitzen einen hohen Grad von Autonomie, weil sie mit minimalem menschlichem Input Ziele erkennen und angreifen können", warnte schon ein Bericht von Human Rights Watch (PDF)  aus dem Jahr 2012. Uno-Sonderberichterstatter Philip Alston mahnte in einem Bericht schon 2010 davor, "Roboter zu bauen, die ohne direkte Autorisierung oder Kontrolle eines Menschen töten können". Sogar eine von diversen Organisationen geförderte "Kampagne zum Stoppen von Killerrobotern"  gibt es bereits.

Die Unterzeichner des neuen offenen Briefes betonen, dass sie "glauben, dass KI großes Potenzial hat, der Menschheit in vieler Hinsicht zu nützen". Es sei jedoch "ein schlechter Einfall, ein militärisches KI-Wettrüsten zu beginnen". Sie fordern deshalb "Verbot offensiver, autonomer Waffensysteme ohne ernst zu nehmende menschliche Kontrolle".

Die Wiedergabe wurde unterbrochen.