Künstliche Intelligenz beim Go-Spiel Darum wird die Maschine siegen

Geoff Hinton ist ein Star in der Szene der künstlichen Intelligenz. Im Interview erklärt er, warum der Sieger im Go-Kampf Mensch gegen Computer bereits feststeht - und wann intelligente Maschinen gefährlich werden.
Go-Spielbrett, Go-Steine

Go-Spielbrett, Go-Steine

Foto: hebsacker-verlag.de
Zur Person

Geoff Hinton, 68, ist Informatiker an der kanadischen University of Toronto und einer der wichtigsten Forscher im Bereich künstlicher neuronaler Netze. Derlei Software ist darauf ausgelegt, selbständig Muster zu erkennen und daraus zu lernen. Hinton arbeitet nicht nur für die Universität, sondern auch für Google im Bereich "Deep Learning". Die Software AlphaGo, die nun gegen einen menschlichen Meister antritt, verdankt ihre Lernfähigkeit dem Ansatz der künstlichen Neuronalen Netze.

SPIEGEL ONLINE: Waren Sie im Oktober überrascht vom Sieg der Software AlphaGo gegen den Go-Europameister Fan Hui?

Hinton: Nein, ich hatte damit gerechnet, dass es früher oder später passiert. Aber als es dann wirklich so weit war, habe ich mich schon sehr gefreut.

AlphaGo vs. Lee Sedol
Foto: Corbis

Der wohl weltbeste Go-Profi Lee Sedol spielt fünf Partien gegen die Deepmind-Software AlphaGo. Ausgetragen werden die Partien am 9., 10., 12., 13. und 15. März im Four Seasons Hotel in Seoul, Südkorea. Die Partien beginnen jeweils um fünf Uhr morgens deutscher Zeit und werden bei YouTube als Livestream  übertragen.

SPIEGEL ONLINE: Sie wuchsen im britischen Bristol auf, nicht gerade eine Hochburg der Computertechnik. Wie kamen Sie auf die Idee, künstliche neuronale Netze zu entwickeln, die inspiriert sind vom menschlichen Gehirn?

Hinton: Mein Vater war Biologe. Seit ich ein kleiner Junge war, haben wir über Darwin gesprochen. Mein Vater hat mir vermittelt, wie Evolution funktioniert. Warum sollte also nicht auch ein Computer, der anfänglich so gut wie nichts "weiß", neue Dinge "lernen" können?

SPIEGEL ONLINE: Entwickelt sich die Künstliche Intelligenz gemäß den Gesetzen der Evolution?

Hinton: Nur sehr indirekt. Die Evolution basiert ja auf blindem Herumprobieren. Künstliche neuronale Netzwerke dagegen basieren auf Mathematik, sie sind streng logisch aufgebaut.

SPIEGEL ONLINE: Aber dennoch verhalten sich Ihre Programme auch für Sie immer wieder überraschend, wie eine Black Box, in der etwas vorgeht, das Sie nicht im Detail nachvollziehen können.

Hinton: Das mag man so sehen, aber mir macht es keine Sorgen, dass ich nicht alle Details des Codes kenne. Wir haben den Algorithmus schließlich geschrieben, daher verstehen wir das Prinzip. Die Details sind dabei nicht so wichtig. In der klassischen Physik ist es doch ähnlich: Wenn ein Blatt von einem Baum fällt, segelt es zum Beispiel hin und her, und es ist unmöglich, genau vorherzuberechnen, wo es landen wird. Aber wir kennen die ungefähre Richtung.

Fotostrecke

Spielregeln einfach erklärt: So geht Go

Foto: Tobias Berben

SPIEGEL ONLINE: Über zehn Jahre dümpelte Ihre Forschung in einem sogenannten KI-Winter vor sich hin. Was brachte den Durchbruch?

Hinton: Da kam Verschiedenes zusammen. Natürlich hatten wir den Code verbessert. Aber vor allem verdankt das Deep Learning auch der Spiele-Industrie eine Menge. Irgendwann gingen Forscher daran, die Grafikkarten, die eigentlich für Computerspiele entwickelt worden waren, als kleine Superrechner zweckzuentfremden. Plötzlich hatten wir dank der Grafikkarten von Firmen wie Nvidia genug Rechenpower für unsere künstlichen neuronalen Netze.

SPIEGEL ONLINE: Beobachter wie Stephen Hawking oder Elon Musk warnen vor den Gefahren selbstlernender intelligenter Maschinen. Teilen Sie derlei Sorgen?

Hinton: Die Probleme würden dann beginnen, wenn sich Maschinen ihre eigenen Ziele setzen. Bis dahin wäre es aber noch ein weiter Weg. Was mir viel mehr Sorgen macht, sind sogenannte intelligente Waffen, die autonom töten können. Aber es ist nicht ihre Intelligenz, die sie gefährlich macht, sondern ihre Autonomie. Diese Autonomie lässt sich aber technisch leicht einschränken.

SPIEGEL ONLINE: Aber KI-Systeme übernehmen immer mehr Jobs und könnten so die Arbeitslosigkeit anheizen.

Hinton: Das kann gut sein. Aber nehmen Sie das Beispiel der Geldautomaten. Diese Arbeit wurde früher von Bankangestellten erledigt, das waren furchtbar langweilige Tätigkeiten. Die Frage ist immer: Wie geht die Gesellschaft mit dem Wandel um? Man kann KI dazu einsetzen, neue Krebsbehandlungen zu finden, oder autonome Waffen zu bauen. Das hängt von uns ab. Die Forscher, welche KI-Systeme entwickeln, können die Technik einschätzen, aber nicht immer die gesellschaftlichen Konsequenzen ihrer Erfindungen. Daher ist es wichtig, dass wir weiterhin die Sozialwissenschaften solide finanzieren. Manchmal werden diese "weichen" Fächer als irrelevant schlecht gemacht. Aber sie sind sehr wichtig als Kompass für fundamentale Richtungsentscheidungen, wie wir mit disruptiven Technologien umgehen wollen.

SPIEGEL ONLINE: Wird AlphaGo aus dem Match in Seoul als Sieger hervorgehen?

Hinton: Es ist alles andere als sicher, dass AlphaGo gegen den weltbesten Go-Spieler gewinnt. Aber es ist nur eine Frage der Zeit. Wir haben den entscheidenden Vorteil: AlphaGo kann ständig gegen sich selbst spielen, und so dazulernen. Man nimmt einfach eine ältere Version und eine neuere Version und lässt sie gegeneinander antreten, die Gewinnerversion wird dann weiterentwickelt. So verbessert sich das System selbst immer weiter, Tag und Nacht. Das können nur Maschinen.