SPIEGEL ONLINE

SPIEGEL ONLINE

21. Februar 2018, 13:41 Uhr

Spekulative Zukunftsszenarien

Wenn der Putzroboter die Finanzministerin sprengt

Mit fiktiven Anwendungsfällen warnen internationale Experten vor dem Missbrauch von künstlicher Intelligenz. Sie machen auch Vorschläge, wie so etwas verhindert werden könnte.

Die Bundesfinanzministerin wurde von einem Reinigungsroboter getötet, als er sich neben ihr in die Luft sprengte.

Die wer wurde was? Na, Dr. Brenda Gusmile, die oberste Haushälterin der Bundesrepublik! Umgebracht von einem mit künstlicher Intelligenz (KI), Gesichtserkennung und Sprengstoff ausgestatteten SweepBot, der sich ins Ministerium schleichen konnte, weil er genau so aussah wie jene Roboter, die dort patrouillieren.

Szenarien für die nächsten fünf Jahre

Eine fiktive Geschichte wie diese kommt heraus, wenn man 20 Forscher und Sicherheitsexperten, unter anderem der Universitäten Oxford und Cambridge, der Initiative OpenAI und der US-Bürgerrechtsorganisation EFF (Electronic Frontier Foundation), über den Einsatz von KI zu niederen Zwecken nachdenken lässt.

In einer 100-seitigen Studie stellen sie mehrere Szenarien, wie das des Attentats auf die ausgedachte deutschen Ministerin, vor. Ziel ist es, insbesondere Politiker und die Forschergemeinschaft zu warnen: KI könnte auch eine Gefahr darstellen, wenn sie ohne zusätzliche regulatorische, organisatorische und technische Sicherheitsmaßnahmen weiterentwickelt wird.

Unter anderem beschreiben sie, wie Kriminelle mit einer Technik, die ähnlich funktioniert wie die Go spielende Google-KI AlphaGo, ständig neue Sicherheitslücken in Unternehmensnetzwerken finden. So schaffen die fiktiven Kriminellen es, eine Ransomware namens WannaLaugh zu verbreiten und Millionen von Menschen zu erpressen. In einem weiteren Szenario wird eine KI-Software eingesetzt, um auf Basis öffentlich zugänglicher Informationen einen perfekten Phishing-Angriff zu entwickeln.

Die ausgedachten Beispiele sollen illustrieren, wie kriminelle Aktivitäten mit Hilfe von maschinellem Lernen und automatischer Mustererkennung auf eine qualitativ neue Ebene gelangen könnten - genau so, wie diese Techniken das auch im Guten tun sollen. Attacken, die es heute schon gibt, werden weiterentwickelt, neue und bisher unrealistische Angriffstechniken entstehen, glauben die Experten.

Einige ihrer Empfehlungen lauten:

Insbesondere Letzteres dürfte unter anderen Experten umstritten sein. Mächtige Konzerne aus den USA und China gehören zu den führenden KI-Treibern, deren Systeme potenziell hunderte Millionen Menschen betreffen. Schon jetzt fordern Initiativen wie AlgorithmWatch in Deutschland und das amerikanische AI Now Institute mehr Transparenz von den Unternehmen, nicht weniger.

Aber auch für viele Firmen und Wissenschaftler dürfte ein Maulkorb inakzeptabel sein. Schließlich gehört vieles, woran sie arbeiten, noch in den Bereich der Grundlagenforschung. Ohne Veröffentlichungen und regen Austausch würde der Fortschritt künstlich verlangsamt.

Den Autoren geht es nicht darum, die Techniken und Anwendungen aus dem KI-Bereich zu verteufeln, sondern sie als Dual-Use-Güter ("mit doppeltem Verwendungszweck") zu behandeln. Ganz so wie Chemikalien oder Nukleartechnik.

pbe

URL:

Verwandte Artikel:

Mehr im Internet


© SPIEGEL ONLINE 2018
Alle Rechte vorbehalten
Vervielfältigung nur mit Genehmigung der SPIEGELnet GmbH