Go-Duell Mensch vs. Software Technisches K.o.

Die Software hat gewonnen: Auch die dritte Partie im Brettspiel Go entschied AlphaGo gegen den Spitzenspieler Lee Sedol für sich. Damit ist das Duell entschieden.

Lee Sedol
AP

Lee Sedol


AlphaGo vs. Lee Sedol
  • Corbis
    Der wohl weltbeste Go-Profi Lee Sedol spielt fünf Partien gegen die Deepmind-Software AlphaGo. Ausgetragen werden die Partien am 9., 10., 12., 13. und 15. März im Four Seasons Hotel in Seoul, Südkorea. Die Partien beginnen jeweils um fünf Uhr morgens deutscher Zeit und werden bei YouTube als Livestream übertragen.
Im Kräftevergleich zwischen Mensch und Computer im Brettspiel Go hat die Google-Software AlphaGo zum dritten Mal den Spitzenspieler Lee Sedol besiegt. Das Programm sicherte sich damit am Samstag in Seoul vorzeitig den Gesamtsieg in dem Fünf-Spiele-Match.

Der Südkoreaner verlor nach mehr als vier Stunden. Schon der erste Sieg von AlphaGo am Mittwoch gegen einen der weltbesten Go-Spieler galt als ein Meilenstein bei der Entwicklung selbstlernender Maschinen.

AlphaGo ist eine Entwicklung der Google-Tochter Deepmind und basiert auf künstlichen neuronalen Netzwerken. Sie lernen beständig weiter und werden so immer besser in ihren Aufgaben.

Go galt als besonders schwere Aufgabe: Das traditionsreiche asiatische Brettspiel ist noch weit komplizierter als Schach (hier sehen Sie wie es funktioniert). Im Go-Spielen könnte die Menschheit ihre Überlegenheit vor lernenden Maschinen noch ein paar Jahre verteidigen, glaubten manche.

So hatte sich auch Lee - der 18 internationale Titel gewann - vor Beginn des Duells siegessicher gezeigt: Er werde haushoch gewinnen. Nach der zweiten Niederlage zeigte er sich zerknirscht: "Ich bin sprachlos."

Neuronale Netzwerke: Die Geschichte
Neuronales Netz: Knoten und gewichtete Verbindungen
David E. Rumelhart/ James L. McClelland

Neuronales Netz: Knoten und gewichtete Verbindungen

Die Idee, dass man die Morphologie des menschlichen Nervensystems nachbilden könnte, um Maschinen so etwas wie denken, lernen oder Wahrnehmung beizubringen, stammt schon aus den Vierzigerjahren des vergangenen Jahrhunderts. Lange Zeit aber blieben die sogenannten neuronalen Netzwerkmodelle eher rudimentär, ein Gebiet für Spezialisten mit besonderer Liebe zur Abstraktion. Dann, in der ersten Hälfte der Achtzigerjahre, änderte sich das vor allem dank einer einzigen Studie. Die Psychologen David Rumelhart und James McClelland zeigten, dass so ein extrem rudimentäres Pseudogehirn lernen kann, die Vergangenheitsformen englischer Verben korrekt zu bilden - und im Laufe des Lernprozesses vorübergehend die gleichen Fehler macht wie ein menschliches Kind beim gleichen Vorgang. Statt "went" warf das Netz als Antwort vorübergehend "goed" aus - es wendete also die Regel korrekt an, aber eben bei einem unregelmäßigen Verb.

Das Netzwerk lernte also Regeln und anschließend auch die Ausnahmen von diesen Regeln - ohne dass eine einzige Regel jemals explizit formuliert worden wäre. Die Studie löste in den Kognitionswissenschaften einen kleinen Boom aus, plötzlich wurden neuronale Netzwerkmodelle auf alle möglichen Fragestellungen angewendet, der Begriff "Konnektionismus" für die neue Wissenschaft kam auf. Dann kam das Internet, die digitale Revolution nahm ihren Lauf, und plötzlich gab es Rechenleistung und entsprechende Computer in Hülle und Fülle. Heute sind neuronale Netzwerke nicht mehr nur Modelle für Psychologen - sie sind zu mächtigen Werkzeugen in den Händen jener geworden, die Computern das Sehen, Denken, Deuten beibringen wollen.

Das Grundprinzip, nach dem solche neuronalen Netzwerke funktionieren, ist immer das gleiche. Sie bestehen aus zwei oder mehr Schichten von Knoten, simulierten Nervenzellen. Verbunden werden diese Schichten mit vielen Verknüpfungen. In der Regel ist jeder Knoten der einen Schicht mit allen Knoten der nächsten verbunden. Die Input-Knoten stehen für elementare Merkmale, sie könnten beispielsweise die Pixel eines vorgegebenen Bildes repräsentieren.

Wird ein Input-Knoten aktiviert, reichte er diese Aktivierung über seine Verbindungen an die Knoten der nächsten Schicht weiter. Die Verbindungen wurden gewichtet - man kann sie sich als unterschiedlich dick vorstellen. Je dicker die Verbindung, desto stärker die Aktivierung, die am nächsten Knoten ankommt. Belehrt wird so ein Netzwerk gewissermaßen rückwärts: Wenn die Output-Schicht nicht das gewünschte Ergebnis produziert, werden die Gewichtungen der Verbindungen mithilfe eines mathematischen Mechanismus Schicht für Schicht so angepasst, dass das Ergebnis beim nächsten Mal besser zum tatsächlichen Input passt. Mit vielen Durchgängen können die Netze so lernen, Inputs korrekt mit Outputs zu verknüpfen.

cis

bim/AP/dpa

Mehr zum Thema


Forum - Diskutieren Sie über diesen Artikel
insgesamt 112 Beiträge
Alle Kommentare öffnen
Seite 1
z1mz1m 12.03.2016
1. Ob das Ergebnis
nun heute oder erst in einigen Jahren erfolgt(e): Selbstlernende Computer sind ziemlich erschreckend. und das nicht nur wegen diverser Hollywood-Filme, in denen K.I. (mit logischerweise jeglichem Fehlen von Moral und menschlichen Werten) die Herrschaft übernimmt. Keine schöne Vorstellung, was das langfristig heissen wird. Aber natürlich nicht aufzuhalten.
martin2011ac 12.03.2016
2.
Versteh ich nicht. Wieso spielen die GO? Wäre der Handel mit Aktien und Derivaten a. nicht viel einfacher und b. profitabler? Anders formuliert, was macht so eine Maschine in der Hand eines privaten Unternehmens? Waffenhersteller verfügen ja auch nicht über private Atombomben. Dabei ist die KI viel gefährlicher als die Bombe, weil man sie, sobald die Maschine intelligenter ist, als ihre Schöpfer, kaum noch kontrollieren kann. Und sicher, dass kann noch ein Weilchen dauern bis die KI uns überrundet, allerdings bietet sich schon heute ein unerhebliches Machtpotential … und dabei wäre Wall Street nur ein Betätigungsfeld, ein noch größeres ist das Weiße Haus, weil sich mit der KI sicherlich bald auch Wahlen gewinnen lassen…
querulant_99 12.03.2016
3.
Zitat von z1mz1mnun heute oder erst in einigen Jahren erfolgt(e): Selbstlernende Computer sind ziemlich erschreckend. und das nicht nur wegen diverser Hollywood-Filme, in denen K.I. (mit logischerweise jeglichem Fehlen von Moral und menschlichen Werten) die Herrschaft übernimmt. Keine schöne Vorstellung, was das langfristig heissen wird. Aber natürlich nicht aufzuhalten.
Nein, es besteht nicht die Gefahr das die Selbstlernenden Computer die Herrschaft übernehmen, sondern vielmehr dass der Personenkreis, der diese Computer unter seiner Kontrolle hat, quasi allmächtig wird, und keiner mehr was dagegen unternehmen, weil auch der "Mainstream" mit Hilfe dieser "Monster" gnadenlos manipuliert wird. Das ist ähnlich wie mit der Kernspaltung. Nicht das physikalische Phänomen ist das Problem, sondern wenn sie in Gestalt von Atombomben in falsche Hände gerät.
Califorum 12.03.2016
4. Monumental
Dies ist ein historisches Ereignis von monumentaler Bedeutung. Die erste nukleare Explosion, die Mondlandung oder der Fall der Mauer werden sich demgegenüber als bloße historische Fußnoten erweisen. Die Welt wird sich auf Basis dieser Entwicklungen viel fundamentaler verändern, als sich die meisten Menschen das heute vorstellen können.
meineidbauer 12.03.2016
5.
Zitat von z1mz1mnun heute oder erst in einigen Jahren erfolgt(e): Selbstlernende Computer sind ziemlich erschreckend. und das nicht nur wegen diverser Hollywood-Filme, in denen K.I. (mit logischerweise jeglichem Fehlen von Moral und menschlichen Werten) die Herrschaft übernimmt. Keine schöne Vorstellung, was das langfristig heissen wird. Aber natürlich nicht aufzuhalten.
Eine KI sollte auch in der Lage sein, Moralbegriffe zu erlernen um "menschlicher" zu werden. Vermutlich wird jedoch aber genau das Fehlen jeglicher Skrupel oder Moralbegriffe als hervorragende Eigenschaft der Maschinen gepriesen werden. Der Anwendungsfall dafür lässt sich ja leicht erahnen.
Alle Kommentare öffnen
Seite 1

© SPIEGEL ONLINE 2016
Alle Rechte vorbehalten
Vervielfältigung nur mit Genehmigung der SPIEGELnet GmbH


Die Homepage wurde aktualisiert. Jetzt aufrufen.
Hinweis nicht mehr anzeigen.