Kunst aus neuronalen Netzen Google-Forscher geben Rechnern LSD

Kann künstliche Intelligenz ein Bild interpretieren? Was sehen Computer, wenn sie in den Himmel schauen? Google-Forscher haben es herausgefunden. Die Resultate sind verblüffend.

Von

Google

Was passiert, wenn man ein künstliches Netzwerk aus simulierten Nervenzellen auf ganz normale Fotos ansetzt? Im Idealfall sagt es einem, was auf dem Bild zu sehen ist. Im Extremfall, wenn man das Netzwerk immer weiter nach Sinn suchen lässt, sieht es Dinge, die gar nicht da sind. Auf eine Weise, die unserer eigenen Wahrnehmung verblüffend ähnelt.

Das Grundprinzip, nach dem solche neuronalen Netzwerke funktionieren, ist immer das gleiche. Sie bestehen aus zwei oder mehr Schichten von Knoten, simulierten Nervenzellen. Verbunden werden diese Schichten mit vielen Verknüpfungen. In der Regel ist jeder Knoten der einen Schicht mit allen Knoten der nächsten verbunden. Die Input-Knoten stehen für elementare Merkmale, sie könnten beispielsweise die Pixel eines vorgegebenen Bildes repräsentieren.

"So verstärkt, dass es eine bestimmte Interpretation hervorrief"

Wird ein Input-Knoten aktiviert, reichte er diese Aktivierung über seine Verbindungen an die Knoten der nächsten Schicht weiter. Die Verbindungen wurden gewichtet - man kann sie sich als unterschiedlich dick vorstellen. Je dicker die Verbindung, desto stärker die Aktivierung, die am nächsten Knoten ankommt. Belehrt wird so ein Netzwerk gewissermaßen rückwärts: Wenn die Output-Schicht nicht das gewünschte Ergebnis produziert, werden die Gewichtungen der Verbindungen mithilfe eines mathematischen Mechanismus Schicht für Schicht so angepasst, dass das Ergebnis beim nächsten Mal besser zum tatsächlichen Input passt. Mit vielen Durchgängen können die Netze so lernen, Inputs korrekt mit Outputs zu verknüpfen. Schon in den Achtzigerjahren lernten neuronale Netze so beispielsweise, englische Verben zu konjugieren (siehe unten).

Neuronales Netz aus klassischem Forschungsartikel von 1985: Input- und Output-Knoten, gewichtete Verknüpfungen
David E. Rumelhart/ James L. McClelland

Neuronales Netz aus klassischem Forschungsartikel von 1985: Input- und Output-Knoten, gewichtete Verknüpfungen

Heute sind neuronale Netze beispielsweise im Bereich der Sprach- und Bilderkennung im Einsatz. Unter anderem bei Google. Eine Forschergruppe um den Russen Alexander Mordvintsev benutzt dort neuronale Netze mit "10 bis 30 Schichten", um Bilder zu erkennen.

Jeder kennt das Phänomen aus dem eigenen Erleben

Mordvintsev und seine Kollegen trainieren ihre Netzwerke auf ähnliche Weise, wie man das auch schon in den Achtzigerjahren tat - nur dass die Netze und die Ergebnisse ungleich komplexer sind: "Wir wissen, dass jede Schicht nach dem Training immer höhere Merkmale des Bildes extrahiert, bis zur letzten Schicht, die gewissermaßen entscheidet, was das Bild zeigt." Eine Schicht suche beispielsweise nach Rändern oder Ecken, spätere nach "Grobformen oder Komponenten wie einer Tür oder einem Blatt". Die letzte Schicht füge diese Komponenten dann zur vollständigen Interpretation eines Bildes zusammen.

Um zu zeigen, wie ein solches Netzwerk arbeitet, haben Mordvintsev und seine Kollegen den Vorgang nun gewissermaßen auf den Kopf gestellt. "Wir baten es, ein Input-Bild so zu verstärken, dass es eine bestimmte Interpretation hervorrief." So wurde dem Netzwerk etwa aufgetragen, in einem Bild voller schwarz-weißem Pixelrauschen Ameisen, Seesterne oder Schrauben zu sehen und die entsprechenden Partien des Bildes dementsprechend hervorzuheben.

Die Resultate sind verblüffend, und sie erinnern an ein Phänomen, das jeder von sich selbst kennt: Blickt man auf unstrukturierte visuelle Reize, sei es eine Raufasertapete, ein Teppichboden oder eine Wolke, wird man darin früher oder später Objekte oder Gesichter zu erkennen glauben. Genau das taten nun auch die künstlichen neuronalen Netzwerke. Mordvintsev und seine Kollegen haben ihre Technik "Inceptionism" getauft, in Anlehnung an Christopher Nolans mehrschichtigen Traum-Film.

Schwein mit Schneckenhaus, Fisch mit Hundegesicht

Als Nächstes versorgten die Forscher ihr Netzwerk mit Fotos von realen Objekten oder Landschaften, beauftragten aber eine bestimmte Schicht des Netzes, "seine" Wahrnehmung hervorzuheben. Bekamen frühe Schichten des Netzes diesen Auftrag, entstanden so Streifen- oder Kringelmuster, "weil diese Schichten sensibel für grundlegende Merkmale wie Ränder und ihre Ausrichtungen sind".

Wurden jedoch die späteren, tieferen Schichten des Netzwerks zu den Herren der Deutung gemacht, geschah etwas Verblüffendes: Aus einem unspektakulären Foto weißer Wolken vor blauem Himmel etwa extrahierte das Netzwerk nach und nach fantastische Objekte und Gestalten, etwa ein Wesen, das wie ein Schwein mit Schneckenhaus aussieht, oder einen Fisch mit dem Gesicht eines Hundes.

Google

Wenn diese Technik auf unterschiedliche Bilder angewendet wird, kommen dabei irrwitzige, oft seltsam beunruhigende Bilder zustande, die an die Werke von Künstlern erinnern, die Halluzinationen einzufangen versucht haben. Sie wirken, als hätten die Forscher ihren Netzwerken psychoaktive Drogen verabreicht - und das stimmt ja auch in gewisser Weise. Denn auch menschliche Halluzinationen sind oft genug nichts anderes als die Überinterpretation bestimmter Merkmale, die ein überreizter visueller Kortex aus dem Input erzeugt, den die Augen liefern.

Nun sind neuronale Netze also so weit, dass sie nicht nur ähnlich lernen wie menschliche Kinder - sie können auch Bilder schaffen, die von psychedelischer Kunst aus Menschenhand nicht mehr zu unterscheiden ist.


Neuronale Netzwerke: Die Geschichte

Die Idee, dass man die Morphologie des menschlichen Nervensystems nachbilden könnte, um Maschinen so etwas wie Denken, Lernen oder Wahrnehmung beizubringen, stammt schon aus den Vierzigerjahren des vergangenen Jahrhunderts. Lange Zeit aber blieben die sogenannten neuronalen Netzwerkmodelle eher rudimentär, ein Gebiet für Spezialisten mit besonderer Liebe zur Abstraktion. Dann, in der ersten Hälfte der Achtzigerjahre, änderte sich das vor allem dank einer einzigen Studie. Die Psychologen David Rumelhart und James McClelland zeigten, dass so ein extrem rudimentäres Pseudogehirn lernen kann, die Vergangenheitsformen englischer Verben korrekt zu bilden - und im Laufe des Lernprozesses vorübergehend die gleichen Fehler macht wie ein menschliches Kind beim gleichen Vorgang. Statt "went" warf das Netz als Antwort vorübergehend "goed" aus - es wendete also die Regel korrekt an, aber eben bei einem unregelmäßigen Verb.

Das Netzwerk lernte also Regeln und anschließend auch die Ausnahmen von diesen Regeln - ohne dass eine einzige Regel jemals explizit formuliert worden wäre. Die Studie löste in den Kognitionswissenschaften einen kleinen Boom aus, plötzlich wurden neuronale Netzwerkmodelle auf alle möglichen Fragestellungen angewendet, der Begriff "Konnektionismus" für die neue Wissenschaft kam auf. Dann kam das Internet, die digitale Revolution nahm ihren Lauf und plötzlich gab es Rechenleistung und entsprechende Computer in Hülle und Fülle. Heute sind neuronale Netzwerke nicht mehr nur Modelle für Psychologen - sie sind zu mächtigen Werkzeugen in den Händen jener geworden, die Computern das Sehen, Denken, Deuten beibringen wollen.

Mehr zum Thema


Forum - Diskutieren Sie über diesen Artikel
insgesamt 65 Beiträge
Alle Kommentare öffnen
Seite 1
aufdenpunktgebracht, 22.06.2015
1. Sehr interessant
Können wir uns so das Träumen vorstellen? "Rechnet" da unser Gehirn "unkontrolliert" drauflos? So langsam wird das Interpretieren der Bilder (Tasten und Geräusche) offenbar als Lernen der neuralen Verbindungen im Gehirn immer besser verstanden. So funktioniert dann wohl auch die Intelligenz.
MrStoneStupid 22.06.2015
2. Können neuronale KI gefährlich werden?
Faszinierende Bilder aber man muss auch mal weiterdenken: der beste bereits real existierende Supercomputer hat formal eine über Tausendfache Rechenleistung als ein Mensch und somit muss KI möglich sein. Die Frage ist, ob eine KI eine neuronale KI sein sollte oder besser eine klassisch algorithmische KI mit herkömmlicher logischer Programmierung. Kann eine neuronale KI fehlerhafter, unkontrollierbarer und gefährlicher als ein Mensch werden? Durchaus eine wichtig Frage, denn schon bald (dieses Jahrhundert) wird es dem Menschen weit überlegene KI geben. So was überlegt man sich lieber rechtzeitig, bevor es zu spät ist. Ich denke, dass algorithmische KI (AKI) der richtige Weg sind, siehe auch http://www.heise.de/forum/heise-online/News-Kommentare/Bilderkennung-Wovon-traeumen-neuronale-Netze/neuronale-KI-sind-moeglicherweise-gefaehrlicher-als-ein-Mensch/posting-20926366/show/ Man sollte den Einsatz von neuronaler KI in Infrastruktur und Militär verbieten. In Wissenschaft und Forschung kann neuronale KI hilfreich sein. (alles imho)
kasam 22.06.2015
3. Vielleicht nichts neues???
Vielleicht der Durchgang in eine andere Dimension. Unser menschliches Auge sieht ja relativ wenig in seinem Spektrum. Der Computer könnte eine Überleitung geschaffen haben. Wäre ja schön
bmvjr 22.06.2015
4. Fabelhaft aber logisch
Die Bilder sind hinreissend, aber nicht so verwunderlich, wie suggeriert wird. Da ist ein Ueberrechnen eines Netzwerkes am Wirken, dass sich aus dem speist, was der Mensch eingegeben hat und eingeben kann. Nicht mehr und nicht weniger. Sobals die Realitaet, vorhandenes Wissen und Vernunft und das Moegliche einem Prozess unterzogen werden, der diese Faktoren ausschaltet, ergibt sich eben Phantasie-Brei von durchaus amuesanten und anregenden Proportionen. Ein selbstandiges Denken oder Sehen einer kuenstlichen Intelligenz findet hier allerdings letzendlich eben doch nicht statt.
Olaf 22.06.2015
5.
Das ist das interessante an der Forschung zu KI, wir lernen dabei mehr über uns.
Alle Kommentare öffnen
Seite 1

© SPIEGEL ONLINE 2015
Alle Rechte vorbehalten
Vervielfältigung nur mit Genehmigung der SPIEGELnet GmbH


Die Homepage wurde aktualisiert. Jetzt aufrufen.
Hinweis nicht mehr anzeigen.