Tödliche autonome Waffen Diplomaten streiten über Ächtung von Killerrobotern

Kriegsmaschinen, die eigenständig Ziele wählen und töten - was nach Science-Fiction-Film klingt, ist vielerorts in der Entwicklung. In Genf wollen nun Vertreter aus mehr als 75 Ländern über ein Verbot diskutieren.

Ferngesteuertes System auf einer Waffenmesse (Archivbild)
DPA

Ferngesteuertes System auf einer Waffenmesse (Archivbild)


Solche Waffen heißen "tödliche autonome Waffen", umgangssprachlich: Killerroboter. Das können schießende Roboter sein, tödliche Drohnen, unbemannte U-Boote. Sie werden im Kampfeinsatz nicht von Menschen dirigiert, sondern entscheiden autonom, was ein legitimes Ziel ist und feuern.

Muss das nicht verboten werden?

Darüber diskutieren vom 27. August an Vertreter aus mehr als 75 Ländern in Genf. "Man sollte die Sache nicht dramatisieren", wiegelte der Vorsitzende der Beratungen, der indische Botschafter Amandeep Gill, im Frühjahr ab. "Roboter werden nicht die Welt übernehmen."

Aber Kritiker sind alarmiert. "Waffen können nicht zwischen Freund und Feind unterscheiden und gehören auf den völkerrechtlichen Prüfstand", sagt Thomas Küchenmeister von der deutschen Organisation Facing Finance, Mitglied der internationalen Kampagne gegen Killerroboter ("Campaign to Stop Killer Robots"). Eine Entscheidung, Menschenleben auszulöschen, dürfe niemals einer Maschine überlassen werden.

Rasante Entwicklung künstlicher Intelligenz

Autonome Waffen werden durch die rasante Entwicklung künstlicher Intelligenz möglich. Computer lernen anhand von eingefütterten Daten, wie ein Ziel aussieht, wie es sich bewegt, wann es angegriffen werden soll und zünden, ohne dass ein Mensch an der Entscheidung noch beteiligt ist.

Zu unterscheiden ist das von automatischen Waffen, etwa Patriot-Raketen. Die schießen zwar automatisch, aber das Ziel muss vorher von Menschen genau einprogrammiert werden. Michael Biontino, bis vor Kurzem deutscher Abrüstungsbotschafter in Genf, erklärt: "Autonome Waffen machen die Zielerkennung selbst, sie haben keine Zielbibliothek gespeichert." Allerdings ist die Grenze zwischen automatischen und autonomen Systemen fließend.

Es besteht kaum Zweifel, dass die USA, Russland, China, Israel, Südkorea und Großbritannien an solchen Systemen arbeiten. Sie existierten schon, sagt Neil Davison vom Internationalen Komitee vom Roten Kreuz (IKRK). Es wacht über die Einhaltung des humanitären Völkerrechts, die weltweit anerkannten Genfer Konventionen, und ist besorgt über die Entwicklung.

"Angriffe sind streng auf militärische Ziele zu beschränken", heißt es in den Konventionen etwa. Können Maschinen das entscheiden? "Menschen müssen genügend Kontrolle behalten, um legale Entscheidungen zu treffen", sagt Davison.

Die Waffen der neuen Art werfen etliche Fragen auf:

  • Können sie erkennen, ob ein Feind sich etwa gerade ergeben will oder verletzt ist?
  • Ob die erkannte Person zwar eine Waffe hat, aber nicht Soldat, sondern Jäger ist?
  • Ob der erkannte Soldat womöglich ein Kamerad der eigenen Seite ist?
  • Wer kann für Verbrechen mit Waffen, die kein Mensch mehr kontrolliert, zur Verantwortung gezogen werden?

"Die Entscheidung über Leben und Tod nicht einer Maschine übertragen"

"Die Linie der Bundesrepublik ist klar: Für uns kann die Entscheidung über Leben und Tod nicht einer Maschine übertragen werden", sagte Biontino im Frühjahr. Es steht sogar im Koalitionsvertrag: "Autonome Waffensysteme, die der Verfügung des Menschen entzogen sind, lehnen wir ab. Wir wollen sie weltweit ächten."

Gemeinsam mit Frankreich hat Deutschland einen Verhaltenskodex vorgeschlagen, wonach alle heutigen und künftigen Waffensysteme menschlicher Kontrolle unterliegen müssen. Das sei ein zahnloser Tiger, sagt aber Küchenmeister. "Ein Verhaltenskodex ist nicht völkerrechtlich verbindlich." Seine Organisation verlangt deshalb einen verbindlichen Vertrag. Aber viele Länder wollen sich in ihrer Waffenentwicklung nicht einschränken lassen. Sie legen bei den Verhandlungen keine Eile an den Tag. "Dieses Zeitspiel ist hochriskant, wenn man sieht, welcher Grad an Autonomie schon erreicht worden ist", sagt Küchenmeister.

Mehr als 2000 Wissenschaftler, die mit künstlicher Intelligenz arbeiten, haben solche Waffen verurteilt. "Es gibt eine moralische Komponente", schrieben sie in einem Appell. "Wir dürfen Maschinen keine Entscheidung über Leben und Tod überlassen, für die andere - oder niemand - strafbar gemacht werden." Sie versprechen, niemals an der Entwicklung oder Herstellung von solchen Waffen mitzuhelfen und fordern Technologiefirmen auf, es ihnen gleichzutun.

wbr/Christiane Oelrich, dpa

Mehr zum Thema


insgesamt 46 Beiträge
Alle Kommentare öffnen
Seite 1
Beat Adler 26.08.2018
1. Chemiewaffen, Kanistermunition, Personenminen sind verboten.
Chemiewaffen, Kanistermunition, Personenminen, Stationierung von Waffen im Weltraum sind verboten. Was helfen diese Verbote in der Praxis? Koennen Uebertreter bestraft, sanktioniert werden? Soviel zur Sinnhaftigkeit von Verboten. Wo ist die Grenze zwischen einem vollautomatischen, mit KI gesteuerertem Waffensystem zu einer KI gesteuerten Zielerfassung zu ziehen? Ist es das "Abdruecken" durch Maschine statt Mensch? Der abrueckende Soldat verlaesst sich schliesslich ganz auf die KI seines Zielerfassungssystemes. Moderne Armeen in heutigen Kriegen verlassen sich bereits darauf, dass keine eigenen Soldaten mehr ums Leben kommen. Dieser Trend wird anhalten. Es duerfte schwer werden durch ein Verbot von Vollautomatik-Entscheidung in den Waffensystemen diesen Trend zu unterbrechen! Kein Kommandeur will heute fuer den Tod seiner Soldaten verantwortlich sein und alles in Bewegung setzen, welches dies verhindert. mfG Beat
Zaunsfeld 26.08.2018
2.
Ich finde es in der Tat schon einen zivilisatorischen Fortschritt der Menschheit, dass so viele Nationen schon über dieses Thema diskutieren und versuchen, einen Einsatz solcher Systeme zu ächten, noch bevor sie einsatzreif sind. Das hat es so bisher in der Geschichte der Militärentwicklung wahrscheinlich noch nicht gegeben. Kernwaffen, biologische Waffen, chemische Waffen, Anti-Personen-Minen, Streumunition etc. ... Da wurde erst angefangen über das Problem zu reden, als die Waffen schon lange im regulären Kriegseinsatz waren, teils schon Jahre, teils sogar Jahrzehnte. Da war das Kind immer schon in den Brunnen gefallen und die weite Verbreitung konnte nicht mehr oder nur noch schwer wieder rückgängig gemacht werden. Und wie gesagt, bei diesen Killerrobotern gibt es schon Bestrebungen zur Einschränkung dieser Waffen, lange BEVOR sie für die Benutzung im realen Einsatz geeignet und herangezüchtet sind. Ob bei diesen Konferenzen und Bestrebungen am Ende was vernünftiges herauskommt, ist eine andere Frage, aber immerhin schon mal besser als nichts.
schlob 26.08.2018
3. skrupellose Staaten gewinnen einen Vorsprung,
Alle diese wundervollen ethischen Bedenken haben nur ein einziges Ergebnis: Die skrupellosen Staaten gewinnen einen solchen Vorsprung,dass ihnen die ethischen Bedenkenträger auf Gedeih und Verderb ausgeliefert sein werden.- Einen Roboter-Krieg hat derjenige Staat gewonnen,dessen Roboter jeden gegnerischen Roboter sofort ausschalten-und sollte sich irgendwo ein Mensch blicken lassen,diesen töten,lähmen,fesseln oder sonstwie ausschalten.- Die besiegte Nation kann ohne Erlaubnis der Sieger gar nicht mehr ihre Höhlen verlassen.- Dass Deutschland mit wilder Begeisterung versucht ,die unterlegene Nation zu werden ,erfüllt ja sicher viele mit Genugtuung.-
noalk 26.08.2018
4. Leider ein leeres Versprechen der 2000 Wissenschaftler
Jeder, der an der Entwicklung von KI mitarbeitet, dient damit automatisch dem Fortschritt bei der Entwicklung tötender ("tödlich" ist in diesem Zusammenhang verharmlosend) autonomer Waffen.
Beat Adler 26.08.2018
5. lange BEVOR sie für die Benutzung im realen Einsatz geeignet sind???
Zitat von ZaunsfeldIch finde es in der Tat schon einen zivilisatorischen Fortschritt der Menschheit, dass so viele Nationen schon über dieses Thema diskutieren und versuchen, einen Einsatz solcher Systeme zu ächten, noch bevor sie einsatzreif sind. Das hat es so bisher in der Geschichte der Militärentwicklung wahrscheinlich noch nicht gegeben. Kernwaffen, biologische Waffen, chemische Waffen, Anti-Personen-Minen, Streumunition etc. ... Da wurde erst angefangen über das Problem zu reden, als die Waffen schon lange im regulären Kriegseinsatz waren, teils schon Jahre, teils sogar Jahrzehnte. Da war das Kind immer schon in den Brunnen gefallen und die weite Verbreitung konnte nicht mehr oder nur noch schwer wieder rückgängig gemacht werden. Und wie gesagt, bei diesen Killerrobotern gibt es schon Bestrebungen zur Einschränkung dieser Waffen, lange BEVOR sie für die Benutzung im realen Einsatz geeignet und herangezüchtet sind. Ob bei diesen Konferenzen und Bestrebungen am Ende was vernünftiges herauskommt, ist eine andere Frage, aber immerhin schon mal besser als nichts.
"Und wie gesagt, bei diesen Killerrobotern gibt es schon Bestrebungen zur Einschränkung dieser Waffen, lange BEVOR sie für die Benutzung im realen Einsatz geeignet und herangezüchtet sind." Das widerspricht dem, was ueber die Automaten und Roboter an israelischen und koreanischen Grenzen bekannt geworden ist. Richtig ist, dass die Diskussion ueber das Thema immer wichtiger wird. Wenn auch sie zu spaet kommt. Die Forschungs -und Entwicklungsgelder fliessen weiter. mfG Beat
Alle Kommentare öffnen
Seite 1

© SPIEGEL ONLINE 2018
Alle Rechte vorbehalten
Vervielfältigung nur mit Genehmigung der SPIEGELnet GmbH


TOP
Die Homepage wurde aktualisiert. Jetzt aufrufen.
Hinweis nicht mehr anzeigen.