Forum: Wissenschaft
Künstliche Intelligenz: Autonome Waffen außer Kontrolle
Getty Images

Schon bald könnten autonome Waffen Kriege entscheiden. Ausgerechnet Forscher, die die technischen Grundlagen dafür mit entwickelt haben, wollen das verhindern.

Seite 1 von 8
basileus97 24.02.2019, 14:53
1. Vereinte Nationen

Wie bei allen Waffen und Waffensystemen wird es Zeit Regeln für die autonome Kriegsführung festzulegen um dystopische Szenarien zu verhindern.

Beitrag melden Antworten / Zitieren
josho 24.02.2019, 15:03
2. Na, das ist doch schon mal was!

Jetzt brauchen wir nur noch Maschinen, die darüber entscheiden, wer mit wem und warum Kriege geführt werden! Dann kann sich die Menschheit bequem zurücklehnen...

Beitrag melden Antworten / Zitieren
zauberer2112 24.02.2019, 15:03
3. Wargames

Ich empfehle diesen Film aus den frühen 80ern und hoffe, dass weder Cyberdyne noch Skynet mit KI-Waffen zu tun haben. Da war Cameron mit "Terminator" 1984 seiner Zeit weit voraus, aber schon als "Terminator 2" gedreht wurde, war Kriegsführung durch KI keine Utopie mehr. Heute kommt es nur noch auf die Präzision, Wucht und v.a. eines an: Wer macht den ersten Schritt?

Beitrag melden Antworten / Zitieren
Spiegulant 24.02.2019, 15:08
4. Tolle Erfindung

Am besten wäre es, diese künstliche Intelligenz so zu programmieren, jegliches menschliche Leben in Sicht- und Spähweite zu töten. Nicht viel anders arbeiten im Endeffekt ja auch die normalen Waffen, Bomben, Minen, Atombomben. Außerdem käme eine derartige Waffe dem normalen Kriegsziel, möglichst viele Menschen, auch und gerade Zivilisten zu töten, um das Bevölkerungswachstum umzukehren, sehr entgegen.

Beitrag melden Antworten / Zitieren
heinrich.busch 24.02.2019, 15:10
5. Die Optionen heissen

geht das? Wieviel Profit kann ich erzielen und kann ich diesen durch Gewinn an Menschenmaterial und Territorien inklusive Bodenschätzen steigern. 3 Mal ja und es wird genau so passieren. Gerade da hat der KM sooooo Recht!

Beitrag melden Antworten / Zitieren
Modestuss 24.02.2019, 15:15
6. Autonome Waffen.

Jede Atomraketen in den 60-er Jahren war bereits eine autonome Waffe, die nur mit dem eingebauten Zerstörungssprengsatz noch vor dem Ziel abgefangen werden konnte.

Die autonomen Waffen haben einen erheblichen Schwachpunkt. Die Elektronik. Wer die hackt, kann die Waffe sofort umdrehen. Ist nicht möglich? Dann warten Sie mal auf den ersten Einsatz.

Beitrag melden Antworten / Zitieren
dunnhaupt 24.02.2019, 15:16
7. Viele Menschen verwechseln Künstliche Intelligenz mit Robotern

Ein Roboter ist bloß ein computergesteuerter, rein mechanischer Apparat, nicht klüger als eine Kuckucksuhr. Erst mit eigenem Denken beginnt wirkliche künstliche Intelligenz.

Beitrag melden Antworten / Zitieren
wolle0601 24.02.2019, 15:21
8. Ich denke, wir brauchen

diese Dinger. Wenn wir im Westen weiter das ökologisch Nachhaltige tun wollen - die Geburtenrate pro Frau unter 2 halten - werden wir das Personal nicht haben, um uns vor denen zu schützen, die noch die alte Bio-Software in den Köpfen haben. Zumal die zunehmende Ängstlichkeit unserer alternden Gesellschaft sowieso keine gute Basis für den notwendigen Kampfgeist ist. Wer schon vor ein paar Mikrogramm Feinstaub panische Angst hat, wird wohl kaum bereit sein, Leben oder Gesundheit für die Landesverteidigung zu riskieren. Kampfroboter sind hier die einzige Chance.

Beitrag melden Antworten / Zitieren
Naturrecht 24.02.2019, 15:22
9. "Künstliche Intelligenz"

Letztendlich stellt das autonome Schießen einer Drohne ein binäres Klassifikationsproblem dar. Anhand der Datenlage wird klassifiziert, ob es ein Feind ist 1 oder kein Feind 0. Dementsprechend wird für jedes Objekt eine Feindwahrscheinlichkeit berechnet und ab einer gewissen Wahrscheinlichkeit, darf das System schießen. Letztendlich ist das absolut nichts neues. Solche binären Klassifikationsprobleme werden schon seit Jahrzehnten mit Hilfe der logistischen Regression in Banken gelöst. Dabei wird die Ausfallwahrscheinlichkeit eines Kunden vorhergesagt (Ausfall 1 kein Ausfall 0). Klar, die Auswirkungen einer Fehlklassifikation, vor allem eines False Positives (System denkt es wäre ein Feind aber es ist in Wahrheit keiner) ist bei einer autonomen Drohne um ein Wesentliches höher. Dementsprechend hoffe ich, dass solche Systeme in der Realität nicht zum Einsatz kommen. Wenn man mal den Begriff "künstliche Intelligenz" mit dem Begriff "statistisches Lernen" ersetzt, wird einem schnell klar, dass eine 100% True Positive und eine 0% False Positive Rate rein mathematisch schon sehr sehr unwahrscheinlich ist.

@Autor: Es wäre mal schön, wenn Spiegel einem Laien kurz erklären würde, was sog. "künstliche Intelligenz" eigentlich ist. Die meisten Menschen haben eigentlich keine Ahnung und denken bei diesem Begriff an irgendwelche Roboter...

Beitrag melden Antworten / Zitieren
Seite 1 von 8