AUS DEM SPIEGEL
Ausgabe 48/2016

Künstliche Intelligenz Leider dumm

Computer sollen denken lernen wie der Mensch: Bilder verstehen, Autos fahren und uns bald schon als allwissende Butler den Alltag organisieren. Doch sie machen bizarre Fehler - von künstlicher Intelligenz keine Spur.

Jan Vismann/ DER SPIEGEL

Von


Der Computer wird immer besser im Erkennen von Bildern. Jetzt sieht er schon Dinge, die gar nicht da sind.

Titelbild
Dieser Artikel ist aus dem SPIEGEL
Heft 48/2016
Eine schrecklich mächtige Familie

In einem Labor von Google zeigten Forscher ihm das Foto eines Schulbusses:

Was ist das?

Ein Vogel Strauß, sagte der Computer. Er war sich ganz sicher.

Und hier die Waschmaschine?

Das ist ein Fußabtreter!

Und dieser Hamster?

Natürlich ein Blumenkohl!

Heutige Computer, so scheint es, haben die Entwicklungsstufe des künstlichen Irreseins erreicht. Im Normalfall gelingt ihnen das Erkennen von Bildern zwar recht gut - Urlaubsfotos mit Tante Tine drauf sind im Nu herausgesucht. Aber die Technik lässt sich erstaunlich leicht foppen.

Es genügt, dass die Forscher die Vorlage unmerklich manipulieren - sie legen einfach feine Muster von Bildpunkten über die Fläche. Ein Mensch sähe immer noch den gleichen Schulbus. Der Computer aber verliert vollständig die Orientierung.

Allerhand Experten machen sich inzwischen einen Spaß daraus, die Rechenmaschinen mit immer neuen Tricks zu blamieren.

Doch geht es dabei um ernste Fragen: Dürfen Computer, die von Trugbildern geplagt sind, ein selbstfahrendes Auto steuern?

Womöglich halten sie ja auch mal Omas Mops auf dem Zebrastreifen für einen Ölfleck. Oder ein Stoppschild für ein Vorfahrtszeichen.

Halt, so was gab es schon. Die Bilderkennung lässt sich, wie jüngst eine Studie zeigte, auch beim Erkennen von Verkehrszeichen leicht austricksen - für Hacker tun sich da neue Möglichkeiten auf.

Selbst ohne böswillige Eingriffe haut die Automatik oft genug daneben. Die Google-Forscher legten dem Computer auch ein rechteckiges Verbotsschild mit ein paar Aufklebern vor - prompt glaubte er, in einen offenen Kühlschrank zu blicken.

Optimisten lassen sich davon nicht verdrießen. Für sie gilt als ausgemacht, dass nun endlich das Zeitalter der künstlichen Intelligenz (KI) anbricht. Und es ist wahr: Gerade der delirierende Computer ist im Grunde ein Triumph der Technik.

Denn nun bringt die Maschine sich das Erkennen quasi selbst bei - und wer lernt, macht eben Fehler. An Millionen Bildern trainieren Bilderkennungsprogramme, worin Schulbusse, Waschmaschinen und Fußabtreter sich unterscheiden. Dank neuartiger Verfahren ("Deep Learning") gelingt das immer besser. KI-Visionäre sehen darin schon erste Anzeichen eines menschenähnlichen Verstandes.

Diese Deutung ist allerdings gewagt. Denn die Fehler, die dem Computer unterlaufen, sind von gänzlich unmenschlichem Typ. Sie zeigen, dass er in Wahrheit nicht im Geringsten versteht, was er da vor sich hat.

Jedes Kind weiß, dass ein Bus große Räder hat, hinten stinkt und "töff, töff" macht. Und wie es ist, wenn er einem vor der Nase davonfährt. Dem Computer aber bedeutet das Bild gar nichts. Er sieht nur eine Unzahl an Pixeln. Darin sucht er wahllos nach Mustern, die in der einen Gruppe von Bildern auftauchen, in der anderen dagegen nicht.

Was immer es ist, an dem er schließlich im Schulbus den Vogel Strauß zu erkennen glaubt - dass Laufvögel auf Rädern untypisch sind, scheint ihn nicht zu irritieren.

Der New Yorker Kognitionsforscher Gary Marcus sieht hinter solchen Verwechslungen ein fundamentales Problem. Der Mangel an Verstand, so glaubt er, setze lernenden Maschinen enge Grenzen. Wo es auf Verlässlichkeit ankomme, seien sie kaum zu gebrauchen.

Wenn die Bilderkennung auf einem von zehn Fotos die Katze übersieht, mag das angehen. Aber niemals, sagt Marcus, dürfe der Haushaltsroboter aus Versehen eine echte Katze in die Spülmaschine stecken.

Auch im Straßenverkehr gibt es wenig Fehlertoleranz. Schlimm genug, dass im Mai der Fahrer eines Tesla in Florida tödlich verunglückte - der Autopilot am Steuer hatte einen querenden Sattelzug nicht als solchen erkannt.

Die KI komme nur voran, glaubt Marcus, wenn sie sich zurückbesinne auf die Psychologie. Sie müsse studieren, warum der Mensch mit den Unwägbarkeiten des Alltags so viel leichter zurechtkommt.

Kinder brauchen nicht Millionen Schulbusse oder Katzen fürs Erkennungstraining. Ihnen reicht eine einzige Mieze zu Hause und vielleicht noch ein Bilderbuch; daraus entwickeln sie schon eine Vorstellung von der Katze an sich - durch simples Probieren. Anfangs nennen sie vielleicht auch das Meerschweinchen "Miau", aber nach ein paar irrigen Eingemeindungen sitzt das Konzept.

Und beim Planschen lernen die Kleinen, wie sich Flüssigkeiten verhalten. Bald wissen sie, was geschieht, wenn sie ein volles Eimerchen übers Parkett kippen. Ein Computer müsste dafür die Bewegung von Millionen Wassermolekülen simulieren.

Jan Vismann/ DER SPIEGEL

Eine künstliche Intelligenz, die den Namen verdient, ist für den Kognitionsforscher Marcus folglich noch immer nicht in Sicht. Aus seiner Perspektive fehlt dazu die wesentliche Voraussetzung: ein gewisses Grundverständnis der Dinge und ihrer Beziehungen zueinander.

Früher, in den Achtzigern, wollten die KI-Forscher ihre Maschinen schon einmal mit Weltwissen ausrüsten. Mühselig löffelten sie ihnen Fakt um Fakt ein: dass auch Kaffee zu den Dingen gehört, die man verschütten kann; dass Menschen nicht mehr einkaufen, wenn sie tot sind.

Das führte aber zu keinem Ende. Die Welt ist zu komplex, als dass sie sich in logischen Regeln ausbuchstabieren ließe. Zudem geschehen unablässig Dinge, die kein Mensch im Voraus definieren kann.

Die heutigen KI-Maschinen lernen dagegen selbst. Sie müssen fast nichts wissen. Man füttert sie einfach mit Daten - wahlweise Fotos, Sprachaufnahmen, Textmassen - und lässt sie machen.

Erstaunlich gut erkennen Computer inzwischen die Silben gesprochener Rede, sie lesen handschriftliche Notizen. Auf Facebook durchsuchen sie täglich über eine Milliarde neu hochgeladene Fotos auf Gesichter und erkennbare Objekte.

Das alles gelingt allerdings nur, wo Trainingsmaterial reichlich verfügbar ist. Damit der Computer etwa ein hingekrakeltes A erkennt, muss er zuvor Millionen Buchstaben in mehreren Durchgängen auf gemeinsame Merkmale abgeklopft haben. "Deep Learning" bedeutet: Beim Lernen justiert der Computer immer wieder seine Kriterien nach - so lange, bis die Erkennung leidlich klappt.

Kleines Problem: Am Ende weiß niemand mehr, wie die Software nun auf ihre Buchstaben kommt. Selbst die Programmierer können das nicht sagen. Das ist der Preis der Selbstständigkeit - die lernende Maschine ist prinzipiell nicht zu durchschauen. Das heißt aber auch: Jederzeit kann sie wieder in künstliche Dummheit verfallen und ein X für ein U halten. Ihr zu vertrauen könnte heikel werden.

Angenommen, ein Computer trainiert mit Röntgenbildern von Frauen, die später an Brustkrebs erkrankten. Womöglich spürt er dabei Vorzeichen auf, die den Ärzten beim Betrachten entgangen sind.

Und dann? Was wäre gewonnen für die Früherkennung? Soll man Frauen ohne ärztlichen Befund in Aufregung stürzen, weil der Robodoc einen Verdacht hat, den er gar nicht begründen kann?

Ähnliche Fragen dürften sich bald öfter stellen. Die Industrie ist entschlossen, das Maschinenlernen auf breiter Front voranzutreiben. Google und Facebook, Apple und Microsoft, Amazon und IBM investieren große Summen. Der Jahresumsatz mit KI-Technik werde bis 2020 von jetzt 8 Milliarden auf 47 Milliarden Dollar wachsen, schätzt die Marktforschungsfirma IDC.

In den Medien häufen sich erwartungsfrohe Berichte über die verständigen Helferlein der Zukunft. Der "Assistant" von Google beispielsweise sitzt im Smartphone, wo er uns bald schon geschmeidig wie ein Butler das halbe Leben organisieren soll. Wer eine Reise plant, muss dann nicht mehr ein halbes Dutzend Apps anwerfen. Er sagt: "Okay, Google! Übers Wochenende geht es nach Paris - an die Arbeit!"

Google würde an Zugfahrt, Hotelbuchung und Opernkarten mitverdienen; das ist die Idee. Der Butler müsste dafür alles über Wünsche und Vorlieben des Gebieters lernen - nicht sehr gemütlich.

Die Verheißung mag arg verwegen sein, aber eine gemäßigt menschenähnliche Intelligenz halten selbst seriöse Experten für denkbar - wenn auch erst in drei bis vier Jahrzehnten. Ein solcher Zeitrahmen hat sich für Prognosen zur KI bewährt; wenn sie am Ende nicht eintreffen, ist der Verkünder in Rente und nicht mehr zu belangen.

An die Spitze der Visionäre hat sich uneinholbar der deutsche KI-Pionier Jürgen Schmidhuber gesetzt. Er freut sich bereits auf die Heraufkunft einer Superintelligenz. Diese himmelhoch erhabene Wesenheit, so glaubt er, werde dereinst so gleichgültig auf das Menschengewimmel blicken wie wir auf die Ameisen.

Weniger mutigen Naturen jagen solche Aussichten Angst ein. Etliche Prominente, von Stephen Hawking bis zum Tesla-Chef Elon Musk, sehen die Menschheit bereits ernstlich in Gefahr.

Wortführer der Apokalyptiker ist der Philosoph Nick Bostrom aus Oxford. Er malt beispielhaft das Schreckensbild einer künstlichen Intelligenz, die dafür programmiert wurde, Büroklammern herzustellen. Diabolisch schlau, wie sie ist, setzt sie alles daran, ihren Output zu maximieren. Am Ende macht die entfesselte Maschine Büroklammern aus allem, was der Planet hergibt, inklusive seiner Bewohner.

Der australische Roboterpionier Rodney Brooks findet eine solche Dämonisierung der KI-Technik albern: "Wenn Sie sich vorm Terminator fürchten", sagte er mal, "lassen Sie einfach die Tür zu."

Noch haben nämlich selbst die schlauesten Roboter große Mühe, eine handelsübliche Klinke zu überwinden. Das zeigte voriges Jahr ein großer Wettbewerb der amerikanischen Militärforschungsbehörde Darpa. Manch eiserner Recke scheiterte schon vor der aufgebauten Tür. Ein Roboter fiel beim Öffnen um.

Für KI-Optimisten sind das nur Startschwierigkeiten. Entscheidend sei, dass die Maschinen lernen. Der Rest werde sich ergeben.

Ebendas war aber der Denkfehler der KI-Forschung von Beginn an; immer wieder haben ihre führenden Köpfe unterschätzt, wie ungeheuer viel noch zu einem brauchbaren Maschinenverstand fehlte.

Schon im Jahr 1958 präsentierte die U.S. Navy ein künstliches neuronales Netz: Das "Perceptron", so hieß es, sei lernfähig fast wie ein Gehirn. Man fütterte einen Rechenschrank mit Lochkarten, und nach etlichen Durchgängen fand das Ungetüm von allein heraus, ob die Karten links oder rechts gestanzt waren.

Sogleich regten sich Träume von vernunftbegabten Lochkartenwesen. Die Nachfahren des Perceptron, so mutmaßte damals die "New York Times", würden wohl bald herumlaufen, reden und denken - und am Ende sich gewiss auch fortpflanzen wollen.

Irgendwie klappte es doch nicht mit dem Maschinenvölkchen. Stattdessen setzten die Forscher auf andere wohlklingende Konzepte: auf formale Logik und genetische Algorithmen, auf Expertensysteme und schließlich doch wieder auf neuronale Netze - jedes Mal stand der Durchbruch des Denkens bevor, jedes Mal fiel er aus.

Über die Jahrzehnte verlor die Öffentlichkeit wiederholt die Geduld, Fördermittel wurden gestrichen, Forschungsprogramme gestoppt, Karrieren demoliert. Als "KI-Winter" gingen die harten Zeiten in die Geschichte der Branche ein.

Aber wie konnten nüchterne Wissenschaftler sich so oft verrennen?

Der Mensch hatte schon immer ein annähernd magisches Verhältnis zu seinen besten Maschinen. Er suchte in ihnen diesen gewissen Funken: Leben, Bewusstsein, eigenen Antrieb. Im 18. Jahrhundert bezauberten ihn die Uhrwerke, die sich im Innern zierlicher Automaten verbargen. Sie bewegten die Finger Flöte spielender Puppen; andere Kunstgeschöpfe konnten, von Spiralfedern und Zahnrädern angetrieben, sogar Buchstaben malen - waren das nicht schon Anfänge des Denkens?

Im Jahr 1738 schuf der französische Mechanikus Jacques de Vaucanson eine künstliche Ente. Sie bestand aus Hunderten beweglichen Teilen, nebst allerlei Hebelchen und Ritzeln kamen erstmals Schläuche aus Gummi zum Einsatz. Der Automat konnte schnattern, mit den Flügeln schlagen und dargereichte Körner verschlucken. Hinten tropfte dann alsbald eine Art Kot heraus.

Vaucansons Ente galt als Wunder der Ingenieurskunst. Am meisten beeindruckten die Schläuche. Die Zeitgenossen fragten sich: Was ist hier noch Maschine und was schon Tier? Viel fehlt nicht mehr, und der Teufelskerl schafft künstliches Leben - die Verdauung hat er ja bereits.

Mit dem heutigen Computer steht es ähnlich. Er ist, wenn man so will, die perfekte Kackente der Gegenwart. Er bringt vieles hervor, wofür Menschen schwer nachdenken müssen. Aber denkt er selbst? Das tut er so wenig, wie Vaucansons Entensimulator verdaut.

Der Computer ist noch immer nur ein Denksimulator. Und er wird, wie es aussieht, von selbst zu gar nichts erwachen. Aber die Vorstellung, da fehle nicht mehr viel, drängt sich fast auf - den Rest ergänzt wie von allein die Fantasie.

Jan Vismann/ DER SPIEGEL

Das wird eines Tages vielleicht auch den smarten Alltagshelfern neuen Typs zugutekommen. Einige Modelle zeigen schon, was sie können: der Assistant von Google, "Alexa" von Amazon, "Cortana" von Microsoft. Für ein Urteil ist es noch zu früh, aber ersten Testberichten zufolge begeistern die Helferlein noch keineswegs. Sie verstehen vieles falsch, weichen oft aus, wenn sie überfordert sind, und stellen sich insgesamt recht hölzern an.

Kein Wunder - den Intelligenzen fehlt nach wie vor jeglicher Sprachverstand. Sie passen nur den Redefluss des Nutzers auf bekannte Wendungen und Schlüsselwörter ab. Was er meinen könnte, versuchen sie daraus mehr oder weniger trickreich zu erschließen. Die Antworten sind aus präparierten Phrasen aufgebaut. Sehr weit kommt man damit nicht.

Fünf Jahre ist es jetzt her, dass Apple auf dem iPhone unter Beifall der Weltpresse eine neuartige Assistentin namens "Siri" vorführte - genug Zeit für die Kundschaft, die Technik auszuloten. Und wer nutzt Siri heute ernsthaft als Hilfskraft? Sie darf vielleicht mal einen Termin eintragen oder ein Musikstück abspielen. Aber sonst?

Dennoch erzeugen dialogfähige Programme von jeher eine starke Illusion menschenähnlicher Intelligenz. Wir sind da leicht zu täuschen. Wenn sich jemand mit uns zu unterhalten scheint, stellen wir uns automatisch eine Person vor. Auch der Sprachgebrauch suggeriert, der Computer sei ein denkendes Wesen - vom "smarten" Telefon bis zum "neuronalen Netz".

Vor allem die vielen "Neuro"-Metaphern stiften Verwirrung. Der Computerkonzern IBM etwa meldete im August einen Durchbruch: Sein Zürcher Labor habe ein "künstliches Neuron" geschaffen. Gemeint war ein elektronisches Schaltelement, das sich entfernt wie eine Hirnzelle verhält: Es empfängt Signale aus der Nachbarschaft, und sobald diese sich zu einem bestimmten Schwellenwert addiert haben, feuert es selbst.

Der Laie könnte meinen, nun sei eine elektronische Kopie des Gehirns schon in Reichweite: Man stöpsle die Bauteile zusammen und schalte den Strom ein.

In Wahrheit fehlt noch so gut wie alles. Um die 86 Milliarden Nervenzellen in hunderterlei Sorten hat der Mensch im Hirn; sie sind untereinander vernetzt mittels 100 Billionen Synapsen. Der amerikanische Hirnforscher Kenneth D. Miller spekulierte einmal, wie lange es dauern würde, auch nur diese Verbindungen zu ermitteln. "Pi mal Daumen: Jahrhunderte", schreibt er.

Selbst dann hätte man quasi bloß die Straßenkarte - nicht aber das Verkehrsgewimmel der Hirntätigkeit in Echtzeit.

Allein schon in den Synapsen, die zwischen den Neuronen vermitteln, ist eine Menge los. Das sind molekulare Maschinen, in denen jeweils mehr als tausend Proteine zusammenarbeiten. Sie regeln nicht nur Stärke und Verlauf der Signale, die sie durchlassen. Vermutlich tragen sie sogar zum Entstehen von Erinnerungen bei, indem sie ihre eigene Erregbarkeit dämpfen - neue Signale können dann den alten Zustand nicht mehr einfach überschreiben und dadurch löschen.

Das ist nur ein winziger Teil des Hirngeschehens. Es wird zudem moduliert von chemischen Cocktails aus dem Hirnstamm, die uns träumerisch oder konzentriert stimmen - und von Hormonen aus dem Körper, die uns antreiben, in Wut versetzen oder unser Begehren anstacheln.

Ist es da nicht arg vermessen, einen simplen Schalter als künstliches Neuron zu präsentieren? Nach dieser Logik ginge auch ein Hüpfball als künstliches Känguru durch.

In Wahrheit ist es gut möglich, dass ein autonomer Verstand nur in einem biologischen Wesen entstehen kann. Etwas Vergleichbares in einem Computer hervorzurufen erfordert mit hoher Wahrscheinlichkeit noch grausam viel Zeit und Mühe.

Zweckoptimismus hilft da wenig. Auch so manchem Experten wird allmählich bang beim Gedanken an all die geweckten Hoffnungen, die nun eingelöst werden wollen. Dauert es zu lange, könnten die Leute sich abermals abwenden.

Zu den Pessimisten gehört der amerikanische Forscher Roger Schank, ein Pionier der KI. Auf seinem Blog geht er mit dem Fach hart ins Gericht: zu viel Marketinggebimmel, schreibt er, zu wenig dahinter.

Schank ist einer der letzten Veteranen, die alle bisherigen KI-Winter überstanden haben; er muss es wissen. Jetzt fürchtet er, dass bald der nächste kommt.

In der Tat: Es riecht schon nach Schnee.



insgesamt 17 Beiträge
Alle Kommentare öffnen
Seite 1
Putin-Troll 02.12.2016
1. Menschen
---Zitat--- Allerhand Experten machen sich inzwischen einen Spaß daraus, die Rechenmaschinen mit immer neuen Tricks zu blamieren ---Zitatende--- Witz komm raus. Bekanntlich sind auch wir Menschen äußerst anfällig für optische Täuschungen, wenn diese auch aufgrund unseres anders aufgebauten Sehapparats z.T. von anderer Natur sind. Wir sehen z.B. Bewegungen auf unbewegten Bildern, interpretieren zweidimensionale Muster räumlich, nehmen die gleiche Farbe unterschiedlich wahr, je nach Hintergrund, und genau wie die Computer, glauben wir Muster zu erkennen, wo keine sind. Sind wir deshalb untauglich für den Straßenverkehr?
Thoregon 02.12.2016
2. Wenn die KI
dumm ist, ist das nicht weiter schlimm, das kann man im Laufe der Zeit beheben. Viel bedenklicher stimmt, dass die NI (natürliche Intelligenz) genauso dumm (oder gar dümmer) ist und von einer Besserung nicht im entferntesten die Rede sein kann. Eher im Gegenteil. Beleg: der aktuelle Zustand der Welt.
murksdoc 02.12.2016
3. Eindimensionale Wahrnehmung
Egal, ob ein Computer Optik, Radar, Infrarot, Doppler oder Ultraschall benutzt, am Ende kommt immer das gleiche heraus: ein irgendwie verpixeltes zweidimensionales Bild. Daraus muss er alle seine Schlüsse ziehen. Ein Bus von oben gesehen ist aber ein Viereck und ein Eimer ist nur von oben und unten gesehen rund. Ein Mensch kann nicht nur sehen, er kann auch fühlen, hören, riechen und schmecken. Daraus setzt sich der Mensch sein Bild zusammen und kann dadurch auch "Einbildung" und "Realität" besser unterscheiden. Man kann nämlich darauf warten, dass irgendein Computer mal "psychotisch" wird und eine Simulation mit der Realität verwechselt. Menschen lernen das, wenn sie im Säuglingsalter alles in den Mund stecken, alles anfassen und an allem riechen. Und dann ist man erst bei der Intelligenz des Säuglings angekommen und schon der ist intelligenter als ein Computer. Ein Computer kann vielleicht besser und schneller rechnen, aber das ist nicht "Intelligenz". Sonst wären bei uns die Buchhalter, die pro Zeiteinheit die meisten immer gleichen Formulare stempeln könnten, die Intelligentesten. "Intelligenz" ist, aus seiner Regel auszubrechen, als Steinzeitmensch in einer Höhle zu leben und von einem "Haus" zu träumen, das der Rest der Welt für eine völlig verrückte Idee hält. Der Computer kann diese Höhle genau berechnen und vermessen und der nächste kann das vielleicht noch besser. Aber der ist nicht intelligenter als der andere, nur "besser", was die Benchmarks eines Computers betrifft. Computer sind perfekte Verwaltungsautomaten sich oft wiederholender Tasks. Wer das für "Intelligenz" hält, hat selbst ein Intelligenzproblem.
shechinah 02.12.2016
4. D
Aktuell ist die so genannte KI bestenfalls auf dem Stand eines Huhnes. Wenn alles gut geht, sind wir in 20 Jahren auf dem Stand eines Dackels. Alles andere ist romantisches Wunschdenken. Und Sätze die mit "in Zukunft..." und "schon jetzt kann man..." beginnen, lassen bei mir immer sofort die roten Flaggen hoch kommen. Zu oft gehört, zu oft nix als ein völlig überschätzter Flop. Ich warte immer noch auf mein atomgetriebenes Auto, daß auf einem elektromagnetischem Kissen schwebt - wurde mir seit 1956 immer wieder versprochen.
opinio... 02.12.2016
5. Kein Herz und keine Seele
Das sind die Vorzüge und gleichzeitig die Gefahren von KI. Unerbittlich, gnadenlos folgt sie den Vorgaben - schlimmer als gute Steuerbeamte oder Staatsanwälte. Wer jedoch beherrscht die Software dazu? Menschen, Machtmenschen - oh weih, das geht nicht gut
Alle Kommentare öffnen
Seite 1

© DER SPIEGEL 48/2016
Alle Rechte vorbehalten
Vervielfältigung nur mit Genehmigung der SPIEGELnet GmbH


TOP
Die Homepage wurde aktualisiert. Jetzt aufrufen.
Hinweis nicht mehr anzeigen.