Mitmach-Kunst Nutzer zwingen Rechner zur Live-Halluzination

Von


Belgische Studenten haben ein Mitmach-Kunstprojekt auf dem Livestreaming-Portal Twitch gestartet. Die Teilnehmer zwingen ein künstliches neuronales Netz dazu, Objekte wie einen Biber, ein Raumschiff oder eine Ananas ins Bild hineinzudeuten.

Ein neuronales Netzwerk ist eine Art simuliertes Miniaturgehirn. Es besteht aus Knoten, die für Nervenzellen stehen, und Verbindungen zwischen diesen Knoten, die ihrerseits in Schichten angeordnet sind. Stopft man am einen Ende eines solchen Netzes einen Input hinein, kommt am anderen Ende ein Output heraus. Mit ein bisschen Übung kann ein Netzwerk lernen, diese Outputs zu perfektionieren (eine ausführlichere Erklärung finden Sie weiter unten). Man kann ihnen so beispielsweise beibringen, Objekte auf Bildern zu erkennen. Oder, so wie das kürzlich Forscher von Google vorgeführt haben, sie dazu bringen, ein Bild so lange zu deuten, bis verrückte, an Halluzinationen erinnernde neue Bilder entstehen. Die künstlichen Neuronen erzeugen dabei spektakuläre Bilder, Kreationen wie ein Schwein mit Schneckenhaus und einen Fisch mit Hundegesicht.

Studenten der Ghent University haben sich nun am Projekt der Google-Forscher orientiert. Nur dass dabei nun nicht Forscher, sondern die Nutzer des Video-Netzwerks Twitch entscheiden dürfen, was der Computer zu sehen versuchen soll.

Dafür geben die Teilnehmer im Chatfenster die Begriffe vor, die der Rechner in ein Foto hineininterpretieren soll. Die Auswahl ist auf 1000 Begriffe begrenzt, die in einer Tabelle aufgelistet sind. Darunter finden sich Tiere wie Moskitos, Gorillas und Schmetterlinge, aber auch menschengemachte Gegenstände wie ein Korkenzieher und ein Football-Helm. Als Ausgangsmaterial dient dem Netzwerk, dass da nun halluzinieren soll, jeweils das Bild, das es zuletzt erzeugt hat, aber "leicht gedreht und herangezoomt", wie Sander Dieleman auf Anfrage erklärt. Das Netzwerk sieht ein Bild, das Publikum ruft herein, was es darin entdecken soll - und dann wird solange gerechnet und am Bild herummanipuliert, bis irgendetwas herauskommt.

Fotostrecke

18  Bilder
Inceptionism: Psychedelische Bilder aus Computern
Mehr als 13.000 Zuschauer haben am Donnerstagvormittag eingeschaltet. Einige von ihnen machen sich einen Spaß aus dem LSD-Projekt und forden, dass der Rechner sich an den Vorgaben "Katy Perry" und "Harry Potter kämpft gegen Batman" orientieren soll. Doch solche Vorgaben ignoriert der Algorithmus einfach.

Ganz so hübsche Ergebnisse wie bei den Vorbildern vom Google-Projekt kommen beim Twitch-Test leider nur selten heraus. Bei einfachen Gebilden wie einem Vulkan klappt die Interpretation ziemlich gut - und die Bergform wird klar dargestellt im Bild. Doch bei der Vorgabe "Killerwal" etwa taucht nur mit viel Fantasie hier und da mal eine Schwanzflosse auf.

Spinnenbeine sind über das ganze Bild verteilt

Auch bei vielen anderen komplexen Bildern lässt sich die Vorgabe nur erahnen: So ist beispielsweise kein großer Unterschied zwischen einem Bild mit der Vorgabe "Siamkatze" zu dem eines Einkaufswagens zu erkennen. Als das Netzwerk eine Süßkartoffel darstellen soll, sieht das Ergebnis aus wie Krabbensalat, die Interpretation von Fleischbrühe ähnelt einem Geflecht aus Riesenkraken-Tentakeln.

Die Vorgabe erkennt man nur daran, dass der Begriff am oberen Bildrand eingeblendet wird. Doch gerade aus diesen Halluzinationen entstehen spannende Bilder, auch wenn sie augenscheinlich gar nichts mit der Vorlage zu tun haben.

Ihre Echtzeit-Variante des Google-Projekts sei "weit weg von Perfektion", schreiben die Studenten in einem Blogbeitrag. Ihr Ansatz sei vor allem nicht dafür geeignet, großflächige Strukturen darzustellen. Wenn man dem Netzwerk mitteile, Bilder von Spinnen zu erzeugen, "dann sieht man viele Spinnenbeine und -körper, die über das Bild verteilt sind, aber eine vollständige Spinne wird eher eine seltene Erscheinung sein". Allerdings haben die Studenten in recht kurzer Zeit ein gutes Ergebnis erreicht. Nicht einmal eine Woche haben sie an dem Projekt gebastelt.

Neuronale Netzwerke: Die Geschichte
Neuronales Netz: Knoten und gewichtete Verbindungen
David E. Rumelhart/ James L. McClelland

Neuronales Netz: Knoten und gewichtete Verbindungen

Die Idee, dass man die Morphologie des menschlichen Nervensystems nachbilden könnte, um Maschinen so etwas wie denken, lernen oder Wahrnehmung beizubringen, stammt schon aus den Vierzigerjahren des vergangenen Jahrhunderts. Lange Zeit aber blieben die sogenannten neuronalen Netzwerkmodelle eher rudimentär, ein Gebiet für Spezialisten mit besonderer Liebe zur Abstraktion. Dann, in der ersten Hälfte der Achtzigerjahre, änderte sich das vor allem dank einer einzigen Studie. Die Psychologen David Rumelhart und James McClelland zeigten, dass so ein extrem rudimentäres Pseudogehirn lernen kann, die Vergangenheitsformen englischer Verben korrekt zu bilden - und im Laufe des Lernprozesses vorübergehend die gleichen Fehler macht wie ein menschliches Kind beim gleichen Vorgang. Statt "went" warf das Netz als Antwort vorübergehend "goed" aus - es wendete also die Regel korrekt an, aber eben bei einem unregelmäßigen Verb.

Das Netzwerk lernte also Regeln und anschließend auch die Ausnahmen von diesen Regeln - ohne dass eine einzige Regel jemals explizit formuliert worden wäre. Die Studie löste in den Kognitionswissenschaften einen kleinen Boom aus, plötzlich wurden neuronale Netzwerkmodelle auf alle möglichen Fragestellungen angewendet, der Begriff "Konnektionismus" für die neue Wissenschaft kam auf. Dann kam das Internet, die digitale Revolution nahm ihren Lauf, und plötzlich gab es Rechenleistung und entsprechende Computer in Hülle und Fülle. Heute sind neuronale Netzwerke nicht mehr nur Modelle für Psychologen - sie sind zu mächtigen Werkzeugen in den Händen jener geworden, die Computern das Sehen, Denken, Deuten beibringen wollen.

Das Grundprinzip, nach dem solche neuronalen Netzwerke funktionieren, ist immer das gleiche. Sie bestehen aus zwei oder mehr Schichten von Knoten, simulierten Nervenzellen. Verbunden werden diese Schichten mit vielen Verknüpfungen. In der Regel ist jeder Knoten der einen Schicht mit allen Knoten der nächsten verbunden. Die Input-Knoten stehen für elementare Merkmale, sie könnten beispielsweise die Pixel eines vorgegebenen Bildes repräsentieren.

Wird ein Input-Knoten aktiviert, reichte er diese Aktivierung über seine Verbindungen an die Knoten der nächsten Schicht weiter. Die Verbindungen wurden gewichtet - man kann sie sich als unterschiedlich dick vorstellen. Je dicker die Verbindung, desto stärker die Aktivierung, die am nächsten Knoten ankommt. Belehrt wird so ein Netzwerk gewissermaßen rückwärts: Wenn die Output-Schicht nicht das gewünschte Ergebnis produziert, werden die Gewichtungen der Verbindungen mithilfe eines mathematischen Mechanismus Schicht für Schicht so angepasst, dass das Ergebnis beim nächsten Mal besser zum tatsächlichen Input passt. Mit vielen Durchgängen können die Netze so lernen, Inputs korrekt mit Outputs zu verknüpfen.

cis



insgesamt 11 Beiträge
Alle Kommentare öffnen
Seite 1
archback 25.06.2015
1.
Was ist denn ein Bieber?
freejack75 25.06.2015
2. Flash!?
Wir schreiben das Jahr 2015, und immernoch gibt es Seiten, die nicht gehen, weil's unbedingt Flash braucht, statt modernem HTML 5. Schade, handwerklich eine sechs, setzen.
Xenocow 26.06.2015
3. Schon irgendwie Genial...
Wenn man Bedenkt, das diese "Kunst" von einem Computer generiert wurde. Die Menschen haben ja eine unheimliche Angst vor der AI... Technologie Singularität etc... ich sehe das eher entspannt. Möglicherweise kann die AI uns Antworten liefern auf Fragen die wir selber nicht beantworten können. z.b. was tun mit dem ganzen Radioaktiven Abfall der 4,5 Milliarden Jahre haltbar ist.
mitchreader 26.06.2015
4. Killerwahl
Was ist denn ein Bieber, oder ein Killerwahl?
ffischer32 26.06.2015
5.
@archback: Ein Bieber? Ganz klar, die Lieblingsbeute des Killerwahls...
Alle Kommentare öffnen
Seite 1

© SPIEGEL ONLINE 2015
Alle Rechte vorbehalten
Vervielfältigung nur mit Genehmigung der SPIEGELnet GmbH


TOP
Die Homepage wurde aktualisiert. Jetzt aufrufen.
Hinweis nicht mehr anzeigen.