Die Homepage wurde aktualisiert. Jetzt aufrufen.
Hinweis nicht mehr anzeigen.

Denkende Waffen: Künstliche-Intelligenz-Forscher warnen vor künstlicher Intelligenz

Von

Killer-Roboter klingen mehr nach Hollywood als nach einer akuten Bedrohung der Menschheit. Doch jetzt warnen mehr als tausend Experten für künstliche Intelligenz: Autonome Waffensysteme könnten bald das werden, "was Kalaschnikows heute sind".

Autonome Waffen: Roboter mit Kanonen Fotos
Rheinmetall Air Defence AG

Eine Grundvoraussetzung erfolgreicher Science-Fiction ist es, den Debatten ihrer Zeit voraus zu sein. Der Schriftsteller Daniel Suarez, einst erfolgreicher Softwareentwickler, ist so ein Debattenvorausseher.

Mit "Daemon" hat er den Thriller geschrieben, der die aktuelle Diskussion über die möglichen Gefahren künstlicher Intelligenz vorwegnimmt. Und mit "Kill Decision" ein Buch über die Frage, was passiert, wenn man Waffen das Denken erlaubt. "Kill Decision" ist ein Reißer, voll mit irrwitzigen Actionsequenzen und mit einer schwer erträglichen Liebesgeschichte. Aber die Drohnen, die sich darin selbstständig machen und gegen die Menschheit erheben, sind ein aufmerksamkeitsstarkes Menetekel.

Jetzt hat wieder jemand über solche autonomen Waffen geschrieben, in nüchternen Worten, aber mit einem Szenario, das dem von Suarez nicht unähnlich ist: Von "bewaffneten Quadcoptern" ist da die Rede, die "nach vordefinierten Kriterien Menschen suchen und eliminieren können". Unterschrieben haben die Warnung intellektuelle Leitfiguren wie Stephen Hawking, Noam Chomsky und der Philosoph Daniel C. Dennett - und mehr als tausend der renommiertesten Forscher im Bereich künstliche Intelligenz.

Renommierte KI-Forscher haben unterschrieben

Vorgestellt wurde der offene Brief jetzt in Buenos Aires. Dort findet derzeit eine Konferenz über künstliche Intelligenz statt, Wissenschaftler und Softwareentwickler tauschen sich über die Möglichkeiten autonomer Systeme aus. Mitinitiator des Briefes ist auch Tesla-Gründer Elon Musk, der sich zu einem der prominentesten Mahner in Sachen künstliche Intelligenz (KI) entwickelt hat. Auch Apple-Mitgründer Steve Wozniak und der Chef des kürzlich von Google aufgekauften KI-Unternehmens Deepmind, Demis Hassabis, haben unterschrieben - und Science-Fiction-Autor Suarez.

Hassabis ist einer derjenigen, die die derzeitige KI-Revolution selbst massiv vorantreiben. Mit Elon Musk ist er beileibe nicht immer einer Meinung, aber mit Blick auf denkende Waffen können sich die beiden offenbar einigen.

In dem Brief wird eindringlich davor gewarnt, Waffensysteme zu entwickeln, die selbstständige Entscheidungen treffen können:

"KI-Technologie hat einen Punkt erreicht, an dem der Einsatz autonomer Waffensysteme - praktisch, wenn auch nicht rechtlich - innerhalb von Jahren, nicht von Jahrzehnten, möglich ist, und die Risiken sind hoch: Autonome Waffen sind als die dritte Revolution der Kriegführung nach Schießpulver und Nuklearwaffen beschrieben worden."

Der Brief warnt vor einer Zukunft, in der autonome Waffensysteme so allgegenwärtig sein könnten wie heute Kalaschnikow-Sturmgewehre, weil sie eines Tages viel einfacher herzustellen sein würden als etwa Atomwaffen. Denn für die braucht man bestimmte, seltene Materialien, für Killerdrohnen nur Komponenten, die man zum Teil schon heute einfach online bestellen kann.

Autonome Waffen: Roboter mit Kanonen

"Mantis"-Waffensystem von Rheinmetall: Der Hersteller bezeichnet dieses Modell als Nächstbereichsschutzsystem. Es kann nicht nur Flugzeuge und Hubschrauber beschießen, sondern soll auch Raketen, Artilleriegeschosse und Granaten abschießen können. Gedacht sind diese Waffen laut Rheinmetall etwa für "den Schutz von Feldlagern oder zur Sicherung von Einrichtungen und Objekten gegen terroristische Angriffe". Sie können Ziele automatisiert erfassen und beschießen.

Wachroboter "Security Guard Robot 1" ("SGR-1") in Südkorea: Der Roboter, der mit einem Maschinengewehr ausgestattet ist, soll potenzielle Eindringlinge an der Grenze zu Nordkorea entdecken und bei Bedarf töten können. Am Ende soll aber immer ein Mensch entscheiden, ob der Roboter nun schießt oder nicht.

"Guardium"-Fahrzeug von G-NIUS Unmanned Ground Systems: Dieses Roboterauto soll die Grenze zwischen Israel und dem Gazastreifen bewachen. Nach Angaben der israelischen Armee könnte das Fahrzeug bei Bedarf auch "autonom reagieren" und "verschiedene gewaltsame Methoden anwenden, um die Bedrohung zu eliminieren".

MQ-1 Predator: Diese Kampfdrohnen sind die derzeit wohl am stärksten verbreiteten teilautonomen Waffensysteme. Die USA setzen sie ein, etwa um im Grenzgebiet zwischen Afghanistan und Pakistan Jagd auf mutmaßliche Qaida-Terroristen zu machen.

Blick durch das Auge der Drohne: Dies ist die Perspektive eines Piloten, der aus der Ferne eine MQ9-Reaper-Drohne fernsteuert. Vollkommen selbstständig fliegen können die Reaper- und Predator-Drohnen der USA bislang nicht. Experten warnen aber, dass auch autonome fliegende Waffensysteme längst im Bereich des Möglichen liegen.

Dohnen-Steuerzentrale in Indian Springs, Nevada: Noch werden teilautonome Waffensysteme von Menschen überwacht oder gesteuert. Doch viele Wissenschaftler warnen mittlerweile vor Systemen, die selbstständig Ziele auswählen und angreifen könnten.

UCAV Harop Drohne des israelischen Herstellers IAI: Dieses Waffensystem soll im Luftraum über einem Zielgebiet "herumhängen" (loitering weapon) und sich dann auf Kommando auf ein zuvor bestimmtes Ziel stürzen. Die Drohne kann Ziele selbständig erkennen und angreifen, soll aber immer von menschlichem Bedienpersonal überwacht werden, das einen Angriff bei Bedarf jederzeit abbrechen kann, "um Kollateralschäden zu vermeiden", wie es der Hersteller formuliert.

Der Brief ist nicht der erste derartige Aufruf, doch die Unterzeichnerliste ist diesmal besonders lang und eindrucksvoll. Hunderte der namhaftesten KI-Forscher stehen darauf, auch zahlreiche deutsche Wissenschaftler sind dabei. Zusammengetrommelt hat die Mahner das sogenannte Future of Life Institute, eine Forschungs- und Lobbyorganisation mit dem Ziel, vor den Gefahren unkontrollierter künstlicher Intelligenz zu warnen. Das FLI hat, auch damals schon unterstützt von Musk und Hawking, schon einmal einen offenen Brief initiiert, in dem unter anderem vor autonomen Waffensystemen gewarnt wird.

Zumindest teilautonome Waffensysteme sind derzeit nicht nur in der Entwicklung, sondern auch längst im Einsatz: An der Grenze zwischen Nord- und Südkorea stehen ferngesteuerte "Security Guard Robots" mit Maschinengewehren, israelische "Harpy"-Drohnen können feindliche Radarstellungen erfassen und sogar selbstständig angreifen. Das "NBS Mantis"-System des deutschen Rüstungsunternehmens Rheinmetall kann automatisch Ziele erfassen und beschießen, "der Benutzer muss das nur überwachen". "Mantis" soll so aber vorrangig Granaten oder Raketen aus der Luft holen.

"Diese Waffensysteme besitzen einen hohen Grad von Autonomie, weil sie mit minimalem menschlichem Input Ziele erkennen und angreifen können", warnte schon ein Bericht von Human Rights Watch (PDF) aus dem Jahr 2012. Uno-Sonderberichterstatter Philip Alston mahnte in einem Bericht schon 2010 davor, "Roboter zu bauen, die ohne direkte Autorisierung oder Kontrolle eines Menschen töten können". Sogar eine von diversen Organisationen geförderte "Kampagne zum Stoppen von Killerrobotern" gibt es bereits.

Die Unterzeichner des neuen offenen Briefes betonen, dass sie "glauben, dass KI großes Potenzial hat, der Menschheit in vieler Hinsicht zu nützen". Es sei jedoch "ein schlechter Einfall, ein militärisches KI-Wettrüsten zu beginnen". Sie fordern deshalb "Verbot offensiver, autonomer Waffensysteme ohne ernst zu nehmende menschliche Kontrolle".

Diesen Artikel...
Forum - Diskutieren Sie über diesen Artikel
insgesamt 158 Beiträge
Alle Kommentare öffnen
    Seite 1    
1. Gibs schon
Leser161 28.07.2015
Anhand Metadaten (Wer hat mit wem telefoniert) entscheiden Algorithmen, wer ein Terrorist ist. Eine menschliche Abwägung findet hier nicht statt, den welcher normaldenkende Mensch würde jemand anders, weil er die falschen Leute angerufen hat zum Tode verurteilen? Der Agorithmus sagt "Er ist ein Terrorist" und der Mensch sagt, "Ja wenn er ein terrorist ist, dann muss er sterben". Ob er jetzt wirklich ein Terrorist ist, wird nicht hinterfragt. Denn der Algorithmus hat es ja gesagt. Ergo, könnte ich den Menschen auch weglassen und direkt die Drohnen auf die Jagd schicken.
2. Die Büchse der Pandora
SarahMue 28.07.2015
Diese Warnung sollte man sehr ernst nehmen. Nicht nur die KI entwickelt in einer enormen Geschwindigkeit sondern auch Drohnen und andere Systeme die sich problemlos zu Waffen umrüsten lassen. Sobald ein Staat mit dem Einsatz beginnt, wird ein Rüstungswettlauf losgetreten. An dieser Rüstung können sich nur Staaten beteiligen sondern auch radikale Einzelpersonen mit sehr wenig Geld. Der Angreifer der sich dieser autonomen Systeme bedient wird nur in den seltesten Fällen zu ermitteln sein. Daher ist schon der erste Schritt in diese Richtung ein großer Fehler. Hier ein Podcast der das Thema aufgegriffen hat: http://alternativlos.org/27/
3. Dieses Thema braucht mehr Aufmerksamkeit
Untertan 2.0 28.07.2015
Inzwischen gibt es selbstfahrende Autos, da sind selbstschießende Drohnen kein wirkliches Problem mehr. Es wäre zu begrüßen, wenn die Länder mit den größten Rüstungs-Budgets, allen voran die USA sich hier auf Regeln einigen würden.
4. Das
forumgehts? 28.07.2015
wird aber erst richtig interessant, wenn diese Waffensysteme gehackt und so programmiert werden, dass sie auf Knopfdruck Amok laufen. Was machbar ist wird auch gemacht, eine schöne Zukunft wnsche ich noch!
5. Was technisch möglich ist...
mac4me 28.07.2015
...wird auch irgendwann gemacht, iwenn es ein Geschäft verspricht. Leider ist, gesamtgesellschaftlich gesehen, Moral nur ein Herrschaftsinstrument. Es sieht so aus, daß die Horror-SciFi-Szenarien wahr werden. Es wird Terror und auch Kriege geben mit autonomen Waffen, die schon bald eingesetzt werden. Ebenso denkbar ist, daß sich die wehrhafte KI gegen ihre Schöpfer wendet. Das mag irreal klingen, aber wir stehen erst am Anfang der technischen Entwicklung. Vor diesem Hintergrund ist der Warnapell aller Ehren wert, aber sicherlich so wirkungsvoll wie die Sonntagsrede eines Politikers.
Alle Kommentare öffnen
    Seite 1    

© SPIEGEL ONLINE 2015
Alle Rechte vorbehalten
Vervielfältigung nur mit Genehmigung der SPIEGELnet GmbH




Netzwelt auf Twitter

Über diesen Account erreichen Sie das Ressort und verpassen keinen Artikel.

Der Atlas ist der Wettkampfathlet unter den Boston-Dynamics-Robotern. Er kann Arme, Beine, Kopf und Torso bewegen, in den Kopf sind Stereokameras und ein Laser-Entfernungsmesser integriert. Als Teil der sogenannten Darpa Robotics Challenge haben Atlas-Roboter beispielsweise eine verschüttete Tür freiräumen oder eine Leiter besteigen müssen – ohne externe Stromzufuhr oder direkte Steuerung von außen. Version Eins von Atlas ist 1,88 Meter groß und wiegt 159 Kilogramm. Das neue Modell Atlas Next Generation wiegt nur noch die Hälfte und ist deutlich agiler.

Der Petman ist ein Roboter mit menschlichen Körpermaßen, der entwickelt wurde, um Schutzkleidung gegen chemische Waffen für Soldaten zu testen. Um entsprechende Schutzanzüge realistisch zu belasten, kann die Maschine nicht nur erstaunlich menschlich laufen, sie beherrscht auch Kniebeugen, Grätschen und kann ihren Torso und ihre Arme sehr menschenähnlich drehen und bewegen. Der Petman simuliert darüber hinaus menschliche Körpertemperatur und sogar Schweiß.

Hondas Asimo ist vermutlich der derzeit bekannteste humanoide Roboter, und sei es nur, weil es ihn schon so lange gibt. Das aktuelle Modell kann laufen, Treppen steigen, Menschen in seiner Umgebung ausweichen, Flaschen öffnen und Getränke einschenken und sogar auf einem Bein hüpfen. Das aktuelle Modell ist 1,30 Meter groß, wiegt 54 Kilogramm und kann bis zu 6 km/h schnell rennen – mit dem typischen, irgendwie niedlich aussehenden Schmidtchen-Schleicher-Gang, für den der Roboter bekannt ist.

Pepper ist ein Produkt der Firma Aldebaran, die wiederum zum japanischen Telekommunikationsriesen Softbank gehört. Der niedlich wirkende humanoide Roboter wird in Japan bereits in Ladengeschäften eingesetzt, um Kunden zu begrüßen, er soll aber zu einem Haushaltsroboter für Privatkunden weiterentwickelt werden. Der Roboter soll mit Menschen in Interaktion treten, etwa Fragen beantworten oder Wegbeschreibungen geben. Der Bildschirm auf seiner Brust soll die – simulierte – Gefühlswelt des Roboters zeigen. Pepper ist 1,20 Meter groß und wiegt 28 Kilogramm. Aldebaran hat sich den Aufwand einer zweibeinigen Bewegung gespart – Pepper steht auf drei in alle Richtungen beweglichen Rädern.

Baxter von der Firma Rethink Robotics ist ein Roboter für den professionellen Einsatz. Er soll in Fabriken und kleineren Betrieben variable Aufgaben übernehmen können. Die zwei Arme des Roboters lassen sich von einem menschlichen Trainer nahezu beliebige Bewegungen beibringen, verschiedene Aufsätze sollen ihm ermöglichen, unterschiedliche Arten von Objekten aufzuheben und zu bewegen. Er soll beispielsweise eingesetzt werden, um Produkte in Kartons zu verpacken. Sich von der Stelle bewegen kann Baxter nicht: Er muss von einem Menschen von Einsatzort zu Einsatzort gerollt werden. Baxter ist mit seinem variablen Standfuß 1,78 bis 1,90 Meter hoch und wiegt 75 Kilogramm. Das Standardmodell kostet 25.000 Dollar.

Der LS3 von Boston Dynamics ist einer aus einer ganzen Serie von Vierbeinern, die primär für militärische Zwecke entwickelt wurden. Die militärische Forschungsbehörde Darpa und das Marine Corps der USA haben die Entwicklung finanziert. Er soll Soldaten das Schleppen von Ausrüstung abnehmen. Ein LS3 kann bis zu 180 Kilogramm Gewicht tragen und dank seiner vier Beine auch in unwegsamem Terrain vorwärtskommen.

Der RiSE, ein weiteres Produkt der Google-Tochter Boston Dynamics, kann an Wänden laufen. Mit seinen sechs Beinen und Mikro-Krallen klammert sich das Gerät an senkrechten Wänden fest, sofern die keine allzu glatte Oberfläche haben. Ein RiSE ist 25 Zentimeter lang, wiegt zwei Kilogramm und kann sich bis zu 30 Zentimeter pro Sekunde fortbewegen.



Anzeige
  • Christian Stöcker:
    Spielmacher

    Gespräche mit Pionieren der Gamesbranche.

    Mit Dan Houser ("Grand Theft Auto"), Ken Levine ("Bioshock"), Sid Meier ("Civilization"), Hideo Kojima ("Metal Gear Solid") u.v.a.

    SPIEGEL E-Book; 2,69 Euro.

  • Bei Amazon kaufen.
Der kompakte Nachrichtenüberblick am Morgen: aktuell und meinungsstark. Jeden Morgen (werktags) um 6 Uhr. Bestellen Sie direkt hier: