Die Homepage wurde aktualisiert. Jetzt aufrufen.
Hinweis nicht mehr anzeigen.

Software-Sieg im Brettspiel: Es geht um weit mehr als Go

Von

Go-Übertragung Lee Sedol vs. AlphaGo im südkoreanischen TV Zur Großansicht
AP

Go-Übertragung Lee Sedol vs. AlphaGo im südkoreanischen TV

Der Sieg der Google-Software AlphaGo gegen den wohl weltbesten Go-Profi macht einen Wendepunkt sichtbar: Künftig lernen Menschen von Maschinen. Das könnte uns sogar retten.

Sicher, es ist ein Schock für die Fans und Profis dieses uralten Brettspiels, dass die Deepmind-Software AlphaGo den Ausnahmespieler Lee Sedol glatt mit drei zu null vom Platz gefegt hat, ein Ergebnis, das zumindest unter Go-Kennern so kaum jemand vorhergesehen hatte. Dieses Ereignis ist aber nicht nur ein Erfolg in der Entwicklung von Go-Software. Es markiert einen Wendepunkt in der Entwicklung der Menschheit.

Um zu verstehen, warum das so ist, lohnt es, den Sieg der Computer über die Menschen im Schach mit dem im Go zu vergleichen. Deep Blue, der IBM-Computer, der 1997 den damaligen Schachweltmeister Garri Kasparow in einem Turnier besiegte, war ein ganz anderes Geschöpf als AlphaGo. Eine hochspezialisierte Kombination aus Hard- und Software, gefüttert mit riesigen Schachdatenbanken, ausgestattet mit der Rechenleistung, mehr Züge, mehr Kombinationen zu simulieren, als ein Mensch das kann. Deep Blue gewann letztlich dank schierer Rechenleistung. Brute force nennt man das im Englischen, rohe Gewalt.

Fotostrecke

5  Bilder
Spielregeln einfach erklärt: So geht Go
Auch AlphaGo läuft auf mächtiger Hardware. Gewinnen aber konnte die Software nicht allein aufgrund ihrer Rechenleistung, dazu ist Go zu vielfältig: Es gibt mehr mögliche Kombinationen auf dem Brett als Atome im Universum. Kein heutiger Rechner kann aus jeder Go-Position alle möglichen Anschlusszüge und ihre Weiterungen mit roher Gewalt durchrechnen. Gerade deshalb galt das Spiel noch Anfang 2016 als eine der Aufgaben, an denen Computer noch jahrelang scheitern würden.

AlphaGo ist nicht nur ein schneller Rechner. Es besteht auch aus lernenden - fast ist man versucht zu sagen: lebendigen - neuronalen Netzen, simuliert am Rechner, aber in ihrer Funktionsweise radikal anders als herkömmliche Software.

Ideen, die Menschen in Tausenden Jahren nicht hatten

Neuronale Netze lernen anhand großer Datenmengen, und sie abstrahieren dabei von all den Beispielen, mit denen man sie gefüttert hat. Das geht mit unterschiedlichsten Arten von Daten - seien es englische Verben und ihre Vergangenheitsformen (siehe Kasten unten), oder eben historische, in Datenbanken festgehaltene Go-Partien.

AlphaGo lernte nicht nur aus den Partien, die Menschen einmal gespielt hatten, es trainierte auch, unermüdlich und unausgesetzt, in Partien gegen sich selbst. Dabei ist offenbar eine neue Spielweise entstanden, die die Go-Elite der Welt diese Woche nachhaltig verstört hat. AlphaGo machte Züge, die menschliche Profis zunächst für Fehler hielten. Tatsächlich aber hatte die Maschine einen Weg gefunden, das Spiel siegreich zu spielen, auf den Menschen in Tausenden Jahren Go-Geschichte nicht gekommen sind.

Was der Sieg von AlphaGo sichtbar macht, ist die Entwicklung, die Mahner wie Stephen Hawking und Elon Musk als potenzielle Gefahr für die Menschheit betrachten: Maschinen könnten klüger werden als Menschen. Und wenn sie das erst einmal sind, dann hält sie nichts davon ab, immer weiter zu machen, immer noch intelligenter zu werden, "superintelligent", wie der Oxford-Philosoph Nick Bostrom das genannt hat.

Big Data plus lernende Software - da kommt was auf uns zu

Tatsächlich müssen wir uns vorerst wirklich keine Sorgen machen, dass eine künstliche Intelligenz die Menschheit unterjocht oder gar ausrottet. Was gerade geschieht, ist nicht apokalyptisch aber für das Selbstverständnis der Menschheit vermutlich trotzdem schwer verdaulich: Eine Maschine - oder besser: eine Software - kann, in klar beschriebenen, eng umgrenzten Gebieten tatsächlich schlauer werden als alle Menschen.

So schlau, dass nicht mehr die Software von den Menschen lernt - sondern umgekehrt. Die Züge von AlphaGo werden wohl verändern, wie Menschen künftig Go spielen. Obwohl, und da wird es spannend, niemand weiß, wie sie genau auf diese Züge gekommen ist. Da gewinnt das Diktum des Science-Fiction-Autors Arthur C. Clarke ganz neue Aktualität: "Jede ausreichend weit entwickelte Technologie ist von Magie nicht mehr zu unterscheiden."

Ein neuronales Netz ist, obwohl man alle seine Verbindungen und Gewichtungen betrachten kann, letztlich eine Black Box. Niemand versteht wirklich, wie es zu seinen Ergebnissen kommt. Ob sie etwas taugen, lässt sich nur im Abgleich mit der Realität - zum Beispiel den Leistungen eines Go-Profis - ermitteln. Immer vorausgesetzt, es liegen ausreichend viele Daten - beispielsweise historische Go-Partien - vor, um das Netzwerk zu trainieren, es auf den Weg zu bringen.

Vorhersage ohne Erkenntnis?

An Daten herrscht kein Mangel. Die Benutzung des Internets, all die Sensoren in unseren Handys, Autos, Industrierobotern, medizinische und fast jede andere Art von Forschung erzeugen täglich gigantische Mengen davon. "Big Data" ist nicht nur ein Buzzword. Aber erst in Verbindung mit lernender Software werden diese riesigen Datenmengen wirklich interessant: Neuronale Netze können aus in diversen Sprachen vorliegenden Texten übersetzen lernen, aus medizinischen Bilddatenbanken das Erkennen von Tumoren, und womöglich aus Klimadaten eines Tages bessere Wettervorhersagen ableiten, als menschengemachte Modelle es heute erlauben. Lernende Software, die uns in ihrem Spezialgebiet überflügelt, wird zum Lehrmeister der Menschheit werden.

Das birgt eine Gefahr: Wenn wir uns auf die Vorhersagen der Rechenmaschinen verlassen, ohne zu begreifen, wie diese Vorhersagen zustandekommen, verabschieden wir uns vom Grundprinzip wissenschaftlicher Erkenntnis, ja von der Erkenntnis an sich: Die Black Box wird uns nicht verraten, wie sie auf ihr Ergebnis gekommen ist. Wissenschaftler werden künftig immer häufiger damit beschäftigt sein, im Nachhinein kausale Erklärungen zu finden für die Voraussagen, die Software aus Hunderttausenden komplexen Korrelationen abgeleitet hat. Das stellt die Wissenschaft, wie wir sie kennen, auf den Kopf.

Schlecht aber muss all das nicht sein, im Gegenteil: Wenn Maschinen uns zeigen können, wie man besser Go spielt, können sie uns vielleicht auch helfen, den Klimawandel besser zu verstehen und zu bekämpfen, den Krebs zu besiegen, dem Hunger in der Welt effektiver zu begegnen. Wir dürfen dabei nur nicht so träge werden, dass wir Vorhersagen akzeptieren, ohne dass ihnen auch Erkenntnis folgt. Sonst wird die Menschheit eines Tages tatsächlich von der künstlichen Intelligenz unterjocht - weil sie selbst das Denken aufgegeben hat.

Neuronale Netzwerke: Die Geschichte
Neuronales Netz: Knoten und gewichtete Verbindungen
David E. Rumelhart/ James L. McClelland

Neuronales Netz: Knoten und gewichtete Verbindungen

Die Idee, dass man die Morphologie des menschlichen Nervensystems nachbilden könnte, um Maschinen so etwas wie denken, lernen oder Wahrnehmung beizubringen, stammt schon aus den Vierzigerjahren des vergangenen Jahrhunderts. Lange Zeit aber blieben die sogenannten neuronalen Netzwerkmodelle eher rudimentär, ein Gebiet für Spezialisten mit besonderer Liebe zur Abstraktion. Dann, in der ersten Hälfte der Achtzigerjahre, änderte sich das vor allem dank einer einzigen Studie. Die Psychologen David Rumelhart und James McClelland zeigten, dass so ein extrem rudimentäres Pseudogehirn lernen kann, die Vergangenheitsformen englischer Verben korrekt zu bilden - und im Laufe des Lernprozesses vorübergehend die gleichen Fehler macht wie ein menschliches Kind beim gleichen Vorgang. Statt "went" warf das Netz als Antwort vorübergehend "goed" aus - es wendete also die Regel korrekt an, aber eben bei einem unregelmäßigen Verb.

Das Netzwerk lernte also Regeln und anschließend auch die Ausnahmen von diesen Regeln - ohne dass eine einzige Regel jemals explizit formuliert worden wäre. Die Studie löste in den Kognitionswissenschaften einen kleinen Boom aus, plötzlich wurden neuronale Netzwerkmodelle auf alle möglichen Fragestellungen angewendet, der Begriff "Konnektionismus" für die neue Wissenschaft kam auf. Dann kam das Internet, die digitale Revolution nahm ihren Lauf, und plötzlich gab es Rechenleistung und entsprechende Computer in Hülle und Fülle. Heute sind neuronale Netzwerke nicht mehr nur Modelle für Psychologen - sie sind zu mächtigen Werkzeugen in den Händen jener geworden, die Computern das Sehen, Denken, Deuten beibringen wollen.

Das Grundprinzip, nach dem solche neuronalen Netzwerke funktionieren, ist immer das gleiche. Sie bestehen aus zwei oder mehr Schichten von Knoten, simulierten Nervenzellen. Verbunden werden diese Schichten mit vielen Verknüpfungen. In der Regel ist jeder Knoten der einen Schicht mit allen Knoten der nächsten verbunden. Die Input-Knoten stehen für elementare Merkmale, sie könnten beispielsweise die Pixel eines vorgegebenen Bildes repräsentieren.

Wird ein Input-Knoten aktiviert, reichte er diese Aktivierung über seine Verbindungen an die Knoten der nächsten Schicht weiter. Die Verbindungen wurden gewichtet - man kann sie sich als unterschiedlich dick vorstellen. Je dicker die Verbindung, desto stärker die Aktivierung, die am nächsten Knoten ankommt. Belehrt wird so ein Netzwerk gewissermaßen rückwärts: Wenn die Output-Schicht nicht das gewünschte Ergebnis produziert, werden die Gewichtungen der Verbindungen mithilfe eines mathematischen Mechanismus Schicht für Schicht so angepasst, dass das Ergebnis beim nächsten Mal besser zum tatsächlichen Input passt. Mit vielen Durchgängen können die Netze so lernen, Inputs korrekt mit Outputs zu verknüpfen.

cis

Diesen Artikel...
Forum - Diskutieren Sie über diesen Artikel
insgesamt 169 Beiträge
Alle Kommentare öffnen
    Seite 1    
1.
rabenschwinge 12.03.2016
Zu der Anmerkung, dass AlphaGo Züge macht, die Menschen zunächst für Fehler halten... Das passierte hauptsächlich im Fortgeschrittenen Spiel. AlphaGo vergab versätzlich offensichtliche Punkte. Das hängt damit zusammen, dass AlphaGo nur bewertet, mit welcher Wahrscheinlichkeit es gewinnt, aber nicht, mit wievielen Punkten es gewinnt. Deswegen verschenkt es auch schon mal ein paar Punkte und ignoriert harte Kämpfe auf dem Spielfeld, um eine eigene Stellung zu sichern die sowieso schon ziemlich sicher ist. Kurz gesagt: Je höher die AlphaGo die Wahrscheinlichkeit einschätzt, dass es sowieso gewinnt, desto merkwürdiger werden aus menschlicher Sicht die Züge. Es wäre interessant zum Vergleich mal ein Spiel zu sehen, dass es verliert; ob dann auch solche unerwarteten Züge auftauchen.
2.
Ingmar E. 12.03.2016
Den wirklichen Vorteil wird die Maschine erst ausspielen, wenn man sie Gesellschaften lenken lässt. Politik ist ein ebenso begrenzter und beschreibbarer Raum wie ein Spiel. Man kann sie anhand aktueller weltweit getroffener Entscheidungen lernen lassen, man kann sie dazu bringen mehrere Simulationen von Gesellschaften gegeneinander antreten zu lassen, mit der Realität abzugleichen und so immer besser Simulationen und Entscheidungen zu entwickeln. Sie könnte irgendwann auch da Entscheidungen treffen, die kein Mensch mehr nachvollziehen kann, die man für unsinnig halten wird, die aber langfristig enorme Vorteile für die Menschheit bringen könnten. Sind wir bereit für sehr große Vorteile in der eigenen Evolution, in der eigenen Arterhaltung die Kontrolle über unsere Gesellschaft abzugeben? Ich denke es wird irgendwann gemacht werden, das Land was als erstes die Kontrolle abgibt, wird damit einen drastischen Vorteil gegenüber anderen Ländern haben, das wird dann als Dominoeffekt auf andere Länder durchschlagen. Die Menschen sind doch lieber extrem wohlhabend, als dass sie Wert legen auf Mitbestimmung, wie Wahlbeteiligungen ja immer wieder zigen.
3.
ty coon 12.03.2016
Ein sehr guter Artikel und eine gute gesellschaftliche Einordnung jenseits von esoterischem Halbwissen und hysterischen Skynet-Dystopien. (Das waren gleich drei Ys -- Weltverschwörung!) Danke dafür.
4. Klimawandel
wolfgangreusch 12.03.2016
Sie werden uns eben gerade NICHT helfen, den Klimawandel zu VERSTEHEN. Das ist ja gerade die "Black Box". Aber sie sind in der Lage, den schnellsten, "effizientesten" Weg zum Klimawandel zu errechnen (wenn man ihnen vorgibt, welche Kriterien dafür erfüllt sein müssen). Oder wohl auch besser als bisher, wieviel Grad es wirklich wärmer wird, wenn konstant viel CO2 emittiert wird. Mit allen Faktoren wie Bindungskraft der Ozeane etc. Letztlich werden sich andere Neuronetze damit beschäftigen müssen, zu "verstehen", was solche Netze errechnet haben. Es ist schlicht nicht transparent und: Wir denken nicht komplex genug. Siehe das Go-Netzwerk: Menschen schüttelten bei einigen Zügen den Kopf: "Völlig sinnlos, krasser Fehler!" Am Ende waren genau das die Züge, die den Unterschied gemacht haben. Nachdem Menschen 1000 ! Jahre auf Go herumgefahren haben...
5. Das ist ein entscheidender Satz. Als wir selber vor...
AundZwanzig 12.03.2016
---Zitat--- Sonst wird die Menschheit eines Tages tatsächlich von der künstlichen Intelligenz unterjocht - weil sie selbst das Denken aufgegeben hat. ---Zitatende--- ...inzwischen über 40 Jahren anfingen Programme zu schreiben, die geistige menschliche Arbeit begannen abzunehmen (das waren anfangs nur Compiler-Compiler) stellten wir uns vor, dass man die gewonnene Zeit, die für für nervende Gewohnheitsarbeit verloren ging, für wirklich interessante Dinge nutzen könnte. Im Laufe der seitdem vergangenen vielen Jahre stellte sich aber heraus, dass eine grosse Menge an Nutzern dem Hang zur Bequemlichkeit folgt. Man selber muss auch aufpassen, damit man nicht verlernt in Bibliotheken zu recherchieren - in echten Büchern - weil man mittels Suchmaschinen oder mittels regulärer Ausdrücke in Büchern nicht weiter kommt. Selbiges gilt für schriftliches Rechnen oder die Benutzung von Logarithmentafeln und Rechenschiebern. All die neue Technik hat unter anderem den Nachteil, dass sie von funktionierender Elektronik abhängig ist. Nebenbei gilt das auch für die Datenspeicher. Wir haben kein Sinnesorgan für das direkte Lesen von DVDs, CDs, Magnetspeichern, so dass diese Aufzeichnungen von Menschen ohne elektronische Hilfsmittel nicht nutzbar sind. Auch die soziale Komponente bezüglich der "zukünftig Ersetzten" sollte nicht unterschätzt werden (Geoffrey Hinton wies im SPON-Interview auch explizit darauf hin). Ich unterhielt mich in den 1970er Jahren mit einem Freund, der gelernter Werkzeugmacher war und später in den Sozialbereich wechselte. Er sagte besorgt: "Ich versuche hier jemandem beizubringen mechanische Arbeit zu bewältigen und Ihr fangt an Ingenieurarbeit zu automatisieren. Das ist ganz schön gefährlich.".
Alle Kommentare öffnen
    Seite 1    

© SPIEGEL ONLINE 2016
Alle Rechte vorbehalten
Vervielfältigung nur mit Genehmigung der SPIEGELnet GmbH




Anzeige
  • Christian Stöcker:
    Spielmacher

    Gespräche mit Pionieren der Gamesbranche.

    Mit Dan Houser ("Grand Theft Auto"), Ken Levine ("Bioshock"), Sid Meier ("Civilization"), Hideo Kojima ("Metal Gear Solid") u.v.a.

    SPIEGEL E-Book; 2,69 Euro.

  • Bei Amazon kaufen.
Der kompakte Nachrichtenüberblick am Morgen: aktuell und meinungsstark. Jeden Morgen (werktags) um 6 Uhr. Bestellen Sie direkt hier: