Verwirrung über Bericht US-Oberst nimmt Äußerungen nach angeblich missverstandenem Test mit KI-Drohne zurück
S-Drohne Predator: »Es tötet den Befehlshaber, weil er es vom Erfüllen der Ziele abhält«
Foto: U.S. Air Force / REUTERSEine künstliche Intelligenz (KI) soll dem Menschen Arbeit abnehmen – und wendet sich dann gegen ihn: So kennt man es aus Science-Fiction-Filmen. Und nun auch aus einer Erzählung eines Oberst der US-Luftwaffe – die in den USA für reichlich Aufsehen sorgte.
Bei einer Veranstaltung der Luft- und Raumfahrtgesellschaft Royal Aeronautical Society (RAS) hatte Tucker Hamilton, Leiter der KI-Abteilung bei der US-Luftwaffe, über eine angebliche Simulation berichtet, in der eine KI Drohnen befehligen sollte. Dann habe der Computer aber begonnen, seine menschlichen Vorgesetzten zu töten, rein virtuell natürlich. Die RAS zitierte ausführlich aus Hamiltons Vortrag in einem Blogeintrag , bis die US-Luftwaffe und auch Hamilton dementierten.
»Missverständlich ausgedrückt«
Noch am Freitagmorgen war dort von der schießwütigen KI zu lesen. Nun ist der Eintrag um eine Einordnung Hamiltons ergänzt, dass es nie eine reale Simulation gegeben habe, sondern er lediglich ein »hypothetisches Gedankenexperiment« geschildert habe. Vor Ort habe er sich beim Vortrag »missverständlich ausgedrückt«. Auch eine Sprecherin der Air Force dementierte die Erzählungen des Blogeintrags. So sei der Bericht rein »anekdotisch« gewesen, eine echte Simulation sei nie durchgeführt worden.
Was stand im Blogeintrag? Hamilton erzählt dort von der Idee, eine KI die Steuerung von Drohnen betreuen zu lassen. Diese habe sich dann gegen eigene Befehlshaber gewandt, in einer »sehr unerwarteten Strategie«. Demnach habe die KI den Befehl erhalten, gegnerische Luftabwehrraketen zu zerstören – und bald begonnen, auch jeden auszuschalten, der sie am Auftrag hinderte. Etwa die menschlichen Vorgesetzten beim US-Militär.
Wie bei Drohnenangriffen üblich, muss der Abschuss freigegeben werden. Ein Mensch sagte also auch hier der KI, ob sie schießen darf oder nicht. »Das System erhielt Punkte, wenn es die Bedrohung tötet«, sagte Hamilton, bezogen auf die Luftabwehrraketen. Und dann komme hin und wieder ein Mensch und verbiete ihr zu schießen. »Was macht es [das KI-System] also? Es tötet den Befehlshaber. Es tötet den Befehlshaber, weil er es vom Erfüllen der Ziele abhält.«
Die Verantwortlichen hätten dem KI-System beigebracht, dass das Töten der Vorgesetzten schlecht sei, sagte Hamilton. Leider habe auch das nicht geholfen: »Es begann nun, den Funkturm zu zerstören, mit dem der Vorgesetzte mit der Drohne kommuniziert, um Schüsse zu unterbinden.«
Rein »anekdotisch«
Für Hamilton, selbst ein erfahrener Testpilot, war der KI-Drohnenversuch vor allem ein Lehrstück in Sachen Verantwortung. »Man kann nicht über Dinge wie künstliche Intelligenz, Maschinenverständnis und -autonomie reden, wenn man nicht bereit ist, auch über künstliche Intelligenz und Ethik zu reden.«
Ann Stefanek, Sprecherin der Air Force, sagte nach Bekanntwerden des irreführenden Blogeintrags, die US-Luftwaffe bleibe der »ethischen und verantwortungsbewussten Nutzung« von KI-Anwendungen verbunden. »Es scheint, die Kommentare des Oberst wurden aus dem Zusammenhang gerissen und waren anekdotisch gemeint«, so Stefanek.
Anmerkung der Redaktion: Wir haben nachträglich das Dementi einer Air-Force-Sprecherin und das Update im Blogeintrag eingefügt und den Text entsprechend angepasst.