SPIEGEL ONLINE

SPIEGEL ONLINE

14. März 2019, 14:00 Uhr

Entscheider statt Terminator

Warum wir oft ein falsches Bild von künstlicher Intelligenz haben

Aus Austin berichtet

Oberschlauer Computer strebt Weltherrschaft mit Killerrobotern an - so funktionieren immer noch viele Hollywood-Stoffe. Experten warnen, dass dieses verzerrte Bild von künstlicher Intelligenz ernste Folgen haben kann.

Im Kino oder auf der Couch begegnet uns künstliche Intelligenz oft als ein wahnwitziges Computerprogramm, das zur tödlichen Bedrohung wird. In den "Terminator"-Filmen schickt das Skynet Killermaschinen, in "2001: Odyssee im Weltraum" will der Bordrechner Raumfahrer meucheln, in "Ex-Machina" rächen sich scharfsinnige Sexbots.

Es gibt auch nette Roboter. Data auf der "Enterprise" oder der Hologramm-Doktor auf der "Voyager". Die Mensch-Kopien taugen leider auch nicht, Zuschauerinnen und Zuschauern ein halbwegs realistisches Bild künstlicher Intelligenz zu vermitteln. Wer nur schlaue Humanoiden oder fiese Killerprogramme zu sehen bekommt, hat ein verzerrtes Bild.

Warum das ein Problem ist, erklären Forscher und Science-Fiction-Autoren auf dem Technik-Festival "South by Southwest" in Austin. Künstliche Intelligenz ist hier überall Thema, ob bei Marsreisen, Krebsforschung oder beim Online-Shopping: Computer lernen und treffen Entscheidungen, auf die ein Mensch nicht gekommen wäre.

Wer bekommt eine Versicherung, wer keinen Kredit?

Das passiert schon jetzt, etwa bei den automatischen Vorschlägen von YouTube oder Netflix, bei der Übersetzung von Sprachen oder im Support-Chat: Maschinen statt Menschen treffen Entscheidungen. Mit dem Terminator hat das nicht viel tun. Trotzdem ist die Technik neu, es gibt ungelöste Fragen und Fallstricke.

"Nur die Hälfte dessen, worüber sich Forscher Gedanken machen, kommt in Filmen und Serien überhaupt vor" sagt Christopher Noessel. Er arbeitet bei IBM an Watson, einer künstlichen Intelligenz, die "Jeopardy" spielt oder Ärzte bei Diagnosen unterstützt. Noessel hat 147 Filme und Serien sowie 68 Manifeste von Forschern und Firmen ausgewertet. Er stieß auf Parallelen - und auf Leerstellen.

Wichtige Fragen kommen in den fiktiven Stoffen praktisch nicht vor: Wie Entscheidungen einer künstlichen Intelligenz nachvollziehbar werden. Damit Entscheidungen von Software - wer bekommt eine Versicherung, keinen Kredit, ein neues Herz - überprüft und korrigiert werden können. Außerdem auf der Agenda der Forscher: Gesetze und Normen, um die neue Technik zu regulieren.

Proben für den Hollywood-Ernstfall

Der Science-Fiction-Autor Cory Doctorow sieht Filmemacher und Geschichtenerzähler in der Verantwortung: "Die Zukunft hängt davon ab, was wir tun." Man dürfe Science Fiction nicht mit Wahrsagerei verwechseln. "Wie wir Geschichten erzählen, hat einen großen Einfluss." Science Fiction zeige nicht, was genau passieren würde, aber was passieren könnte.

Den Einfluss der Hollywood-Geschichten auf Politik illustriert er anhand von Verschlüsselung: Wenn in Filmen Codes in Sekunden geknackt werden, wecke das Begehrlichkeiten bei Politikern und ziehe schlechte Ideen wie den Zwang zu einer Hintertür nach sich. Wie Filme und Serien künstliche Intelligenz darstelle, habe direkten Einfluss auf die Wahrnehmung der neuen Technik in der Gesellschaft.

Noch schlimmer seien nur Katastrophenfilme: Kaum passiere etwas, gerieten die Menschen auf der Leinwand aneinander und die Ordnung breche zusammen. Tatsächlich verhielten sich die meisten Menschen genau gegenteilig - trotzdem würde die Politik sich zunehmend auf den Hollywood-Ernstfall vorbereiten. Bald auch bei künstlicher Intelligenz?

Waschmaschinen statt Roboter

Malka Older, Autorin des viel gelobten Cyberpunk-Buchs "Infomocracy", fordert deswegen vielfältige Geschichten und genaues Hinschauen. Science Fiction habe die Kraft, gesellschaftliche Vorstellungen nachhaltig zu verändern. Ihr Beispiel: Der Kuss zwischen Uhura und Kirk, einer Schwarzen und eines Weißen, in der Fernsehserie "Raumschiff Enterprise".

Older sorgt sich, dass auch Nachrichten zunehmend als Geschichten erzählt werden und sich an Hollywood orientieren. Bilder vom Terminator für Artikel nutzen (wie hier geschehen), an der Vorstellung einer künstlichen Intelligenz festhalten, die wie ein Mensch fühlt und ein eigenes Bewusstsein hat. Ihre Hoffnung: Mit der Zeit nehme das allgemeine Wissen über künstliche Intelligenz zu. In ihren Büchern schreibt Older deswegen auch nicht von "künstlicher Intelligenz". Die schlauen Funktionen seien schließlich schon jetzt überall eingebaut. "Wir nennen Waschmaschinen auch nicht mehr Roboter", sagt sie.

Intelligenz sei oft noch voller Vorurteile, berichtet die Bürgerrechts- und KI-Expertin Rashida Richardson. Weil bestimmte Personengruppen in den Daten, mit denen die Programme trainiert werden, kaum vorkämen. Weil die Programmierer selbst eine homogene Truppe weißer Männer sei. Was unter anderem dazu führte, dass Gesichtserkennung bei Menschen mit schwarzer Hautfarbe kaum funktioniere.

Ein Begriff wie eine Blendgranate

Das zeigt sich auch in Hollywood: Auf den Filmplakaten sind künstliche Intelligenzen oft humanoide Roboter mit weißer Hautfarbe, männliche Killermaschinen oder weibliche Sexsklaven.

Das verzerrte KI-Bild führt auch zu Auswüchsen wie diesen: Experten haben sich 2830 europäische Start-ups genauer angesehen, die angeblich oder vermeintlich künstliche Intelligenz einsetzen. Bei 40 Prozent traf das entweder gar nicht zu oder war eine maßlose Übertreibung. Das Blenden funktioniert dann besonders gut, wenn das allgemeine Verständnis gering ist.

Aber nicht nur Hollywood hat Aufholbedarf. Eine womöglich beunruhigende Randbeobachtung von Noessel: In den von ihm untersuchten Manifesten von Forschern und Firmen fand sich kaum ein Wort über autonome Waffensysteme. Womit wir doch wieder beim Terminator wären.

URL:


© SPIEGEL ONLINE 2019
Alle Rechte vorbehalten
Vervielfältigung nur mit Genehmigung