Die Homepage wurde aktualisiert. Jetzt aufrufen.
Hinweis nicht mehr anzeigen.

Künstliche Intelligenz beim Go-Spiel: Darum wird die Maschine siegen

Von

Go-Spielbrett, Go-Steine Zur Großansicht
hebsacker-verlag.de

Go-Spielbrett, Go-Steine

Geoff Hinton ist ein Star in der Szene der künstlichen Intelligenz. Im Interview erklärt er, warum der Sieger im Go-Kampf Mensch gegen Computer bereits feststeht - und wann intelligente Maschinen gefährlich werden.

Zur Person
Geoff Hinton, 68, ist Informatiker an der kanadischen University of Toronto und einer der wichtigsten Forscher im Bereich künstlicher neuronaler Netze. Derlei Software ist darauf ausgelegt, selbständig Muster zu erkennen und daraus zu lernen. Hinton arbeitet nicht nur für die Universität, sondern auch für Google im Bereich "Deep Learning". Die Software AlphaGo, die nun gegen einen menschlichen Meister antritt, verdankt ihre Lernfähigkeit dem Ansatz der künstlichen Neuronalen Netze.
SPIEGEL ONLINE: Waren Sie im Oktober überrascht vom Sieg der Software AlphaGo gegen den Go-Europameister Fan Hui?

Hinton: Nein, ich hatte damit gerechnet, dass es früher oder später passiert. Aber als es dann wirklich so weit war, habe ich mich schon sehr gefreut.

AlphaGo vs. Lee Sedol
  • Corbis
    Der wohl weltbeste Go-Profi Lee Sedol spielt fünf Partien gegen die Deepmind-Software AlphaGo. Ausgetragen werden die Partien am 9., 10., 12., 13. und 15. März im Four Seasons Hotel in Seoul, Südkorea. Die Partien beginnen jeweils um fünf Uhr morgens deutscher Zeit und werden bei YouTube als Livestream übertragen.
SPIEGEL ONLINE: Sie wuchsen im britischen Bristol auf, nicht gerade eine Hochburg der Computertechnik. Wie kamen Sie auf die Idee, künstliche neuronale Netze zu entwickeln, die inspiriert sind vom menschlichen Gehirn?

Hinton: Mein Vater war Biologe. Seit ich ein kleiner Junge war, haben wir über Darwin gesprochen. Mein Vater hat mir vermittelt, wie Evolution funktioniert. Warum sollte also nicht auch ein Computer, der anfänglich so gut wie nichts "weiß", neue Dinge "lernen" können?

SPIEGEL ONLINE: Entwickelt sich die Künstliche Intelligenz gemäß den Gesetzen der Evolution?

Hinton: Nur sehr indirekt. Die Evolution basiert ja auf blindem Herumprobieren. Künstliche neuronale Netzwerke dagegen basieren auf Mathematik, sie sind streng logisch aufgebaut.

SPIEGEL ONLINE: Aber dennoch verhalten sich Ihre Programme auch für Sie immer wieder überraschend, wie eine Black Box, in der etwas vorgeht, das Sie nicht im Detail nachvollziehen können.

Hinton: Das mag man so sehen, aber mir macht es keine Sorgen, dass ich nicht alle Details des Codes kenne. Wir haben den Algorithmus schließlich geschrieben, daher verstehen wir das Prinzip. Die Details sind dabei nicht so wichtig. In der klassischen Physik ist es doch ähnlich: Wenn ein Blatt von einem Baum fällt, segelt es zum Beispiel hin und her, und es ist unmöglich, genau vorherzuberechnen, wo es landen wird. Aber wir kennen die ungefähre Richtung.

Fotostrecke

5  Bilder
Spielregeln einfach erklärt: So geht Go
SPIEGEL ONLINE: Über zehn Jahre dümpelte Ihre Forschung in einem sogenannten KI-Winter vor sich hin. Was brachte den Durchbruch?

Hinton: Da kam Verschiedenes zusammen. Natürlich hatten wir den Code verbessert. Aber vor allem verdankt das Deep Learning auch der Spiele-Industrie eine Menge. Irgendwann gingen Forscher daran, die Grafikkarten, die eigentlich für Computerspiele entwickelt worden waren, als kleine Superrechner zweckzuentfremden. Plötzlich hatten wir dank der Grafikkarten von Firmen wie Nvidia genug Rechenpower für unsere künstlichen neuronalen Netze.

SPIEGEL ONLINE: Beobachter wie Stephen Hawking oder Elon Musk warnen vor den Gefahren selbstlernender intelligenter Maschinen. Teilen Sie derlei Sorgen?

Hinton: Die Probleme würden dann beginnen, wenn sich Maschinen ihre eigenen Ziele setzen. Bis dahin wäre es aber noch ein weiter Weg. Was mir viel mehr Sorgen macht, sind sogenannte intelligente Waffen, die autonom töten können. Aber es ist nicht ihre Intelligenz, die sie gefährlich macht, sondern ihre Autonomie. Diese Autonomie lässt sich aber technisch leicht einschränken.

SPIEGEL ONLINE: Aber KI-Systeme übernehmen immer mehr Jobs und könnten so die Arbeitslosigkeit anheizen.

Hinton: Das kann gut sein. Aber nehmen Sie das Beispiel der Geldautomaten. Diese Arbeit wurde früher von Bankangestellten erledigt, das waren furchtbar langweilige Tätigkeiten. Die Frage ist immer: Wie geht die Gesellschaft mit dem Wandel um? Man kann KI dazu einsetzen, neue Krebsbehandlungen zu finden, oder autonome Waffen zu bauen. Das hängt von uns ab. Die Forscher, welche KI-Systeme entwickeln, können die Technik einschätzen, aber nicht immer die gesellschaftlichen Konsequenzen ihrer Erfindungen. Daher ist es wichtig, dass wir weiterhin die Sozialwissenschaften solide finanzieren. Manchmal werden diese "weichen" Fächer als irrelevant schlecht gemacht. Aber sie sind sehr wichtig als Kompass für fundamentale Richtungsentscheidungen, wie wir mit disruptiven Technologien umgehen wollen.

SPIEGEL ONLINE: Wird AlphaGo aus dem Match in Seoul als Sieger hervorgehen?

Hinton: Es ist alles andere als sicher, dass AlphaGo gegen den weltbesten Go-Spieler gewinnt. Aber es ist nur eine Frage der Zeit. Wir haben den entscheidenden Vorteil: AlphaGo kann ständig gegen sich selbst spielen, und so dazulernen. Man nimmt einfach eine ältere Version und eine neuere Version und lässt sie gegeneinander antreten, die Gewinnerversion wird dann weiterentwickelt. So verbessert sich das System selbst immer weiter, Tag und Nacht. Das können nur Maschinen.

Neuronale Netzwerke: Die Geschichte
Die Idee, dass man die Morphologie des menschlichen Nervensystems nachbilden könnte, um Maschinen so etwas wie denken, lernen oder Wahrnehmung beizubringen, stammt schon aus den Vierzigerjahren des vergangenen Jahrhunderts. Lange Zeit aber blieben die sogenannten neuronalen Netzwerkmodelle eher rudimentär, ein Gebiet für Spezialisten mit besonderer Liebe zur Abstraktion. Dann, in der ersten Hälfte der Achtzigerjahre, änderte sich das vor allem dank einer einzigen Studie. Die Psychologen David Rumelhart und James McClelland zeigten, dass so ein extrem rudimentäres Pseudogehirn lernen kann, die Vergangenheitsformen englischer Verben korrekt zu bilden - und im Laufe des Lernprozesses vorübergehend die gleichen Fehler macht wie ein menschliches Kind beim gleichen Vorgang. Statt "went" warf das Netz als Antwort vorübergehend "goed" aus - es wendete also die Regel korrekt an, aber eben bei einem unregelmäßigen Verb.

Das Netzwerk lernte also Regeln und anschließend auch die Ausnahmen von diesen Regeln - ohne dass eine einzige Regel jemals explizit formuliert worden wäre. Die Studie löste in den Kognitionswissenschaften einen kleinen Boom aus, plötzlich wurden neuronale Netzwerkmodelle auf alle möglichen Fragestellungen angewendet, der Begriff "Konnektionismus" für die neue Wissenschaft kam auf. Dann kam das Internet, die digitale Revolution nahm ihren Lauf, und plötzlich gab es Rechenleistung und entsprechende Computer in Hülle und Fülle. Heute sind neuronale Netzwerke nicht mehr nur Modelle für Psychologen - sie sind zu mächtigen Werkzeugen in den Händen jener geworden, die Computern das Sehen, Denken, Deuten beibringen wollen.

Das Grundprinzip, nach dem solche neuronalen Netzwerke funktionieren, ist immer das gleiche. Sie bestehen aus zwei oder mehr Schichten von Knoten, simulierten Nervenzellen. Verbunden werden diese Schichten mit vielen Verknüpfungen. In der Regel ist jeder Knoten der einen Schicht mit allen Knoten der nächsten verbunden. Die Input-Knoten stehen für elementare Merkmale, sie könnten beispielsweise die Pixel eines vorgegebenen Bildes repräsentieren.

Wird ein Input-Knoten aktiviert, reichte er diese Aktivierung über seine Verbindungen an die Knoten der nächsten Schicht weiter. Die Verbindungen wurden gewichtet - man kann sie sich als unterschiedlich dick vorstellen. Je dicker die Verbindung, desto stärker die Aktivierung, die am nächsten Knoten ankommt. Belehrt wird so ein Netzwerk gewissermaßen rückwärts: Wenn die Output-Schicht nicht das gewünschte Ergebnis produziert, werden die Gewichtungen der Verbindungen mithilfe eines mathematischen Mechanismus Schicht für Schicht so angepasst, dass das Ergebnis beim nächsten Mal besser zum tatsächlichen Input passt. Mit vielen Durchgängen können die Netze so lernen, Inputs korrekt mit Outputs zu verknüpfen.

cis

Diesen Artikel...
Forum - Diskutieren Sie über diesen Artikel
insgesamt 74 Beiträge
Alle Kommentare öffnen
    Seite 1    
1.
RudiRastlos2 08.03.2016
Danke für das leider viel zu kurze Interview mit einem der Größten seines Faches!
2. Unlogisch!
permissiveactionlink 08.03.2016
Dass die KI durch Nachspielen von Meisterpartien besser wird ist nachvollziehbar, besonders dann wenn zigtausende davon im Netz verfügbar sind. Ich bezweifle aber eine Weiterentwicklung des Systems durch ständiges Spielen gegen sich selbst. Beim Schach wird man auch nicht besser, indem man ständig gegen spielschwächere Gegner antritt. Und was im Denksport gilt, trifft auch für jede besondere Fähigkeit, die mühsam erlernt wird: Es erfordert Begabung, sehr viel Übung, hervorragende Lehrer und andere Menschen, an denen man sich messen kann. H. Grönemeyer lernt ja auch nicht mehr singen, nur wenn er ständig seine eigenen Platten hört.
3. sehr interessantes thema
naklar261 08.03.2016
ich hoffe ueber den Ausgang des Go Spiels wird berichtet
4. Eigentlich ist es sicher
tetaro 08.03.2016
... dass die Maschienen den Menschen mittelfristig in den Schatten stellen werden. Der Grund wurde angesprochen, wir beruhen auf Evolution durch Herumprobieren, die Maschinen können gezielt vorgehen, auch da sie physisch wesentlich variabler sind. Das wird irgendwann explosionsartige Auswirkungen auf deren Fähigkeiten haben, die wir uns wahrscheinlich nicht vorstellen können. Alles was es braucht, ist Selbstlernfähigkeit und eine gewisse Anfangsautonomie, das wird in kurzer Zeit zur Unkontrollierbarkeit führen. Schon jetzt sind wir so abhängig von der noch recht primitiven Computerwelt, dass man sich fragen muss, ob die Kontrollierbarkeit überhaupt noch gegeben ist.
5. ist ja auch nicht ganz so
pariah_aflame 08.03.2016
Zitat von permissiveactionlinkDass die KI durch Nachspielen von Meisterpartien besser wird ist nachvollziehbar, besonders dann wenn zigtausende davon im Netz verfügbar sind. Ich bezweifle aber eine Weiterentwicklung des Systems durch ständiges Spielen gegen sich selbst. Beim Schach wird man auch nicht besser, indem man ständig gegen spielschwächere Gegner antritt. Und was im Denksport gilt, trifft auch für jede besondere Fähigkeit, die mühsam erlernt wird: Es erfordert Begabung, sehr viel Übung, hervorragende Lehrer und andere Menschen, an denen man sich messen kann. H. Grönemeyer lernt ja auch nicht mehr singen, nur wenn er ständig seine eigenen Platten hört.
es klang im text mehr danach, als würde das system nicht gegen sich selbst spielen, sondern das bis dahin erfolgreichste neuronale netz muss ständig gegen neue (anders konfigurierte) herausforderer antreten. wer gewinner ist der neue "champ" und muss seinen platz behaupten, indem er andere neuronale netze schlägt. und das sollte die leistungsfähigkeit doch vergleichsweise schnell steigern - keine ahnung, wieviele partien so in 24 stunden möglich sind.
Alle Kommentare öffnen
    Seite 1    

© SPIEGEL ONLINE 2016
Alle Rechte vorbehalten
Vervielfältigung nur mit Genehmigung der SPIEGELnet GmbH





Anzeige
  • Christian Stöcker:
    Spielmacher

    Gespräche mit Pionieren der Gamesbranche.

    Mit Dan Houser ("Grand Theft Auto"), Ken Levine ("Bioshock"), Sid Meier ("Civilization"), Hideo Kojima ("Metal Gear Solid") u.v.a.

    SPIEGEL E-Book; 2,69 Euro.

  • Bei Amazon kaufen.
Der kompakte Nachrichtenüberblick am Morgen: aktuell und meinungsstark. Jeden Morgen (werktags) um 6 Uhr. Bestellen Sie direkt hier: