Spekulative Zukunftsszenarien Wenn der Putzroboter die Finanzministerin sprengt

Mit fiktiven Anwendungsfällen warnen internationale Experten vor dem Missbrauch von künstlicher Intelligenz. Sie machen auch Vorschläge, wie so etwas verhindert werden könnte.

Verkappter Killerroboter?
Getty Images

Verkappter Killerroboter?


Die Bundesfinanzministerin wurde von einem Reinigungsroboter getötet, als er sich neben ihr in die Luft sprengte.

Die wer wurde was? Na, Dr. Brenda Gusmile, die oberste Haushälterin der Bundesrepublik! Umgebracht von einem mit künstlicher Intelligenz (KI), Gesichtserkennung und Sprengstoff ausgestatteten SweepBot, der sich ins Ministerium schleichen konnte, weil er genau so aussah wie jene Roboter, die dort patrouillieren.

Szenarien für die nächsten fünf Jahre

Eine fiktive Geschichte wie diese kommt heraus, wenn man 20 Forscher und Sicherheitsexperten, unter anderem der Universitäten Oxford und Cambridge, der Initiative OpenAI und der US-Bürgerrechtsorganisation EFF (Electronic Frontier Foundation), über den Einsatz von KI zu niederen Zwecken nachdenken lässt.

Fotostrecke

8  Bilder
Fotostrecke: Diese Jobs sind durch Maschinen gefährdet

In einer 100-seitigen Studie stellen sie mehrere Szenarien, wie das des Attentats auf die ausgedachte deutschen Ministerin, vor. Ziel ist es, insbesondere Politiker und die Forschergemeinschaft zu warnen: KI könnte auch eine Gefahr darstellen, wenn sie ohne zusätzliche regulatorische, organisatorische und technische Sicherheitsmaßnahmen weiterentwickelt wird.

Unter anderem beschreiben sie, wie Kriminelle mit einer Technik, die ähnlich funktioniert wie die Go spielende Google-KI AlphaGo, ständig neue Sicherheitslücken in Unternehmensnetzwerken finden. So schaffen die fiktiven Kriminellen es, eine Ransomware namens WannaLaugh zu verbreiten und Millionen von Menschen zu erpressen. In einem weiteren Szenario wird eine KI-Software eingesetzt, um auf Basis öffentlich zugänglicher Informationen einen perfekten Phishing-Angriff zu entwickeln.

Die ausgedachten Beispiele sollen illustrieren, wie kriminelle Aktivitäten mit Hilfe von maschinellem Lernen und automatischer Mustererkennung auf eine qualitativ neue Ebene gelangen könnten - genau so, wie diese Techniken das auch im Guten tun sollen. Attacken, die es heute schon gibt, werden weiterentwickelt, neue und bisher unrealistische Angriffstechniken entstehen, glauben die Experten.

Einige ihrer Empfehlungen lauten:

  • Politiker sollten sicherstellen, dass sie die Technik sowie deren Möglichkeiten und Grenzen wirklich verstehen, um sie sinnvoll regulieren zu können.
  • KI-Forscher sollten bei der Entwicklung immer auch den Missbrauch als Szenario mitdenken.
  • Die Forscher sollten zudem Techniken aus der IT-Sicherheit in ihre Arbeit integrieren, um KI-Systeme, wie andere Programme auch, gegen Hackerangriffe abzusichern.
  • Alternativen zur Offenlegung von Forschungsergebnissen sollten zumindest diskutiert werden. Sprich: Nicht alle Ergebnisse sollten allen Menschen zugänglich sein.

Insbesondere Letzteres dürfte unter anderen Experten umstritten sein. Mächtige Konzerne aus den USA und China gehören zu den führenden KI-Treibern, deren Systeme potenziell hunderte Millionen Menschen betreffen. Schon jetzt fordern Initiativen wie AlgorithmWatch in Deutschland und das amerikanische AI Now Institute mehr Transparenz von den Unternehmen, nicht weniger.

Aber auch für viele Firmen und Wissenschaftler dürfte ein Maulkorb inakzeptabel sein. Schließlich gehört vieles, woran sie arbeiten, noch in den Bereich der Grundlagenforschung. Ohne Veröffentlichungen und regen Austausch würde der Fortschritt künstlich verlangsamt.

Den Autoren geht es nicht darum, die Techniken und Anwendungen aus dem KI-Bereich zu verteufeln, sondern sie als Dual-Use-Güter ("mit doppeltem Verwendungszweck") zu behandeln. Ganz so wie Chemikalien oder Nukleartechnik.

pbe



insgesamt 9 Beiträge
Alle Kommentare öffnen
Seite 1
Gerdd 21.02.2018
1. Ach ja, richtig ...
Nach dem heutigen Stand der Dinge residiert die Intelligenz ja nicht in den sichtbaren Robotern oder dergleichen. Das sind ja nur die "Extremitäten" der womöglich zentralen oder auch vernetzten Intelligenz. Auch die Siris und Alexas etc. sind ja nicht die intelligenten Komponenten - die sitzen bei Google oder Apple oder so im Cloud-Datenzentrum, wären also von solchen Gewaktakten kein bisschen tangiert.
shardan 21.02.2018
2. Es wird notwendig....
Es wird notwendig werden, den KI's etwas mitzugeben, dass in der Literatur als "Asimov'sche Robotergesetze" bekannt ist. Ob das nun in der Form geschieht, wie Isaac Asimov es angedacht hat (Siehe Film "Der zweihundert-Jahre-Mann" oder der Romanvorlage "Ich, der Robot"), oder ob es anders gemacht wird, sei dahingestellt. Allerdings wird selbst das keine Sicherheit vor solchen Attacken geben - Kriminelle Hacker und Geheimdienste werden Mittel und Wege finden, das zu umgehen. Was diese Wissenschaftler sagen, mag scih für Laien wie überkandidelte Spinnerei anhören. Als IT'ler sehe ich diese Risiken allerdings ähnlich, sie sind keineswegs von der Hand zu weisen.
schwerpunkt 21.02.2018
3.
Zitat von shardanEs wird notwendig werden, den KI's etwas mitzugeben, dass in der Literatur als "Asimov'sche Robotergesetze" bekannt ist. Ob das nun in der Form geschieht, wie Isaac Asimov es angedacht hat (Siehe Film "Der zweihundert-Jahre-Mann" oder der Romanvorlage "Ich, der Robot"), oder ob es anders gemacht wird, sei dahingestellt. Allerdings wird selbst das keine Sicherheit vor solchen Attacken geben - Kriminelle Hacker und Geheimdienste werden Mittel und Wege finden, das zu umgehen. Was diese Wissenschaftler sagen, mag scih für Laien wie überkandidelte Spinnerei anhören. Als IT'ler sehe ich diese Risiken allerdings ähnlich, sie sind keineswegs von der Hand zu weisen.
Den Asimov'schen Gesetzen steht dann allerdings der "german code" (siehe "Qualityland" von Marc-Uwe Kling) gegenüber, der die KIs dazu verpflichtet jeden menschlichen Befehl unmittelbar und ohne Widerspruch (auch ohne ihn überhaupt auch nur eine Nanosekunde lang anuzweifeln) umzusetzen. Dies beinhaltet auch und gerade die Selbstzerstörung. Dieser "German Code" ist von der KI selbst nicht veränder- oder löschbar.
marcus-manta 21.02.2018
4. Aufgewacht und Mitgedacht
Werte Mitglieder des Bundestags, hier kommt richtig was auf uns zu. Wann fangen Sie endlich an, sich ernsthaft damit zu beschäftigen? Über Kontrolle nachzudenken, oder z.B. die Einführung einer Robotersteuer? Bitte, denken Sie einmal über die nächste Wahl hinaus. Zumindest einen Arbeitskreis bilden?
_thilo_ 21.02.2018
5. @3: eben nicht ... (oder war das Ironie ?)
Die (naiven) 3 "Robotergesetze" von Asimov setzen voraus, dass die Robots ein Verständnis der Situation haben um ihre ethisch richtige Entscheidung zu treffen. Wird absehbar nicht funktionieren ... Blinder Gehorsam gegenüber Menschen ist aber in keiner Weise angemessen: Sagt ein Mensch dem Auto des Nachbarn: "Fahr gegen den nächsten Baum." Das Auto sollte sich mit Recht weigern dem Befehl Folge zu leisten (vor allem, wenn der Nachbar drin sitzt ...). Das wird in Zukunft richtig spannend: Roboter-Recht, Roboter-Ethik, Roboter-Versicherungen, Roboter-Psychologie ! Dürfen Pflege-Roboter lügen um einem dementen Menschen zu helfen ? Dürfen Roboter lügen, um einem gesunden(!) aber uneinsichtigen Menschen zu helfen ? Letzteres, i.e. "Lügen", geschieht schon systematisch bei den automatischen Anzeigen für die Anzahl der freien Plätze in einem Parkhaus. Der Computer zeigt "0" an, auch, wenn noch einige Plätze frei sind, um Parksuchverkehr und Stau im Parkhaus zu vermeiden...
Alle Kommentare öffnen
Seite 1

© SPIEGEL ONLINE 2018
Alle Rechte vorbehalten
Vervielfältigung nur mit Genehmigung der SPIEGELnet GmbH


TOP
Die Homepage wurde aktualisiert. Jetzt aufrufen.
Hinweis nicht mehr anzeigen.