Google-Forschungsprojekt Künstliche Intelligenz bewältigt 49 Atari-Spiele

"Breakout", "Video Pinball", "Space Invaders": Die künstliche Intelligenz DeepMind ist in der Lage, 49 Atari-Klassiker zu spielen. Dabei lernt sie aus Erfolg und Misserfolg.

Figur aus "Space Invaders": Einer von 49 Spieleklassikern, die DeepMind spielen kann
Atari

Figur aus "Space Invaders": Einer von 49 Spieleklassikern, die DeepMind spielen kann


Das Fachmagazin "Nature" hat eine Studie veröffentlicht, in der Forscher über ihre Fortschritte bei der künstlichen Intelligenz (KI) DeepMind berichten. Das auf KI-Forschung spezialisierte Unternehmen DeepMind Technologies war vergangenes Jahr von Google übernommen worden.

Dem neuesten Bericht zufolge ist DeepMind mittlerweile imstande, 49 Atari-Spiele erfolgreich zu bewältigen. Dabei handelt es sich um Spieleklassiker für die Atari-2600-Konsole wie "Breakout", "Video Pinball" und "Space Invaders" .

Natürlich geht es den Wissenschaftlern nicht darum, ein möglichst teures Daddelprogramm zu schaffen. Bei der Entwicklung der spielstarken KI setzen sie auf das sogenannte Deep Reinforcement Learning. Es dreht sich um die Analyse großer Datenmengen und das Erkennen darin verborgener Muster.

Auf dieser Basis leitet das Programm eigenständig neue Handlungskonzepte ab, es lernt aus Erfolg und Misserfolg. Eine KI ist so theoretisch imstande, sich selbstständig auf neue Situationen einzustellen und angemessen zu reagieren. Eine Fähigkeit, die Techniker gern etwa bei selbstfahrenden Autos, Sprachassistenten in Smartphones oder wissenschaftlichen Forschungsprojekten einsetzen würden.

Im Test schaffte es das Google-Programm, sich die Regeln der Atari-Spiele selbst beizubringen. Laut der Studie hat das "Deep-Q Network" oder "DQN" genannte Programm in 43 Fällen von früheren KIs vorgelegte Werte verbessert. Dabei habe DQN seine Entwickler oft genug durch die Erfindung neuer, bislang unbekannter Spielstrategien überrascht.

Der "Guardian" zitiert DeepMind-Gründer Demis Hassabis mit der Einschätzung, DQN könne anspruchsvolle Aufgaben bewältigen, die auch ein Mensch kompliziert finden würde. "Das ist nur ein kleiner Baby-Schritt hin zu einem großen Ziel, aber ein wichtiger."

IBMs Riesenrechner Deep Blue hatte seinerzeit noch komplexe Schachstrategien und unzählige Partien eingespeichert bekommen, um schließlich gegen Garri Kasparow gewinnen zu können. Dagegen lernt die DeepMind-KI alle erforderlichen Schritte von Grund auf.

Zunächst beobachtet DeepMind einzelne Spielzüge und trifft scheinbar wahllos eigene Entscheidungen. Doch die KI lernt aus den Ergebnissen. Der Londoner Professor für Neurowissenschaften Tim Behrens gibt sich beeindruckt: "Was sie [die Forscher; Anmerkung der Redaktion] geleistet haben, ist ohne Frage beeindruckend. Ihre KI erlernt Konzepte auf der Grundlage von Belohnung und Strafe. Das hat noch niemand zuvor getan."

Bis zum alltäglichen Einsatz der KI dürften jedoch noch Jahre vergehen. Im Moment ist das DeepMind-Team dabei, die KI an das Niveau von Computerspielen aus den Neunzigern anzupassen. Ein Zwischenziel könnte das Beherrschen von dreidimensionalen Autofahrten wie in den "Grand Theft Auto"-Spielen sein. Der "New York Times" sagte Demis Hassabis, dass er dieses Ziel innerhalb der nächsten fünf Jahre für erreichbar hält. Und wenn etwas ein Fahrzeug in einem Rennspiel steuern könne, "sollte es theoretisch auch ein Auto" in der physischen Welt fahren können.

meu

Mehr zum Thema


Forum - Diskutieren Sie über diesen Artikel
insgesamt 18 Beiträge
Alle Kommentare öffnen
Seite 1
managerbraut 26.02.2015
1. Alles alte Spiele
bei denen es mehr auf Reaktionsschnelligkeit ankam als auf Strategien und Verknüpfungen zur Wahl der richtigen Strategie! Mit KI hat das reichlich wenig zutun! Jeder Super Rechner - Schachcomputer verfügt über zig tausendfache höher entwickelte KI als diese Google Spielemaschine! Googles KI entwicklung befindet sich auf dem stand Einarmiger Banditen!
Meinungsloser 26.02.2015
2.
@managerbraut Sie scheinen den neuen Trick an der KI nicht verstanden zu haben. Sie bringt sich das Spielen selber bei und das auch noch bei verschiedenen Spielen. Bisherige KI's sind meistens Expertensysteme, denen alles von Hand beigebracht wurde (gerade die Schachcomputer sind eigentlich strunzdoof). Das hier unterscheidet sich fundamental davon. Grüße
Onkel Uwe 26.02.2015
3.
Zitat von managerbrautbei denen es mehr auf Reaktionsschnelligkeit ankam als auf Strategien und Verknüpfungen zur Wahl der richtigen Strategie! Mit KI hat das reichlich wenig zutun! Jeder Super Rechner - Schachcomputer verfügt über zig tausendfache höher entwickelte KI als diese Google Spielemaschine! Googles KI entwicklung befindet sich auf dem stand Einarmiger Banditen!
Ein ganz cleverer. Sicher mit jeder Menge Fachkenntnis zum Thema... 1. kommt es sehr wohl auch auf Strategie an. Beispiel Pinball: man hat meist ein Zeitfenster von 1/10 Sekunde oder mehr, in der man die Kugel mit einem Paddel auf die weitere Reise schickt. Wann in dieser besonders für einen Computer enormen Zeitspanne man dies am besten macht in Abhängigkeit vom aktuellen Bewegungsvektor der Kugel ist ein recht komplexes Problem. 2. Schachcomputer haben einen Katalog von Partien und versuchen sich aus diesem enormen Basiswissen nach Wahrscheinlichkeitsverteilung und ähnlichen Wegen die besten Optionen für die aktuelle Partie zu extrahieren. Die DeepMind-KI erstellt sich das Basiswissen auf ihrem Gebiet selbst. Das ist eine Leistung, zu der die Schachcomputer nicht in der Lage sind und die auch erheblich höher zu werten ist als die Nutzung des Basiswissens.
wdiwdi 26.02.2015
4. Nein, lesen Sie den Originalartikel
Zitat von managerbrautbei denen es mehr auf Reaktionsschnelligkeit ankam als auf Strategien und Verknüpfungen zur Wahl der richtigen Strategie! Mit KI hat das reichlich wenig zutun! Jeder Super Rechner - Schachcomputer verfügt über zig tausendfache höher entwickelte KI als diese Google Spielemaschine! Googles KI entwicklung befindet sich auf dem stand Einarmiger Banditen!
Das System spielt auf einem Level, bei der es auf Reaktionsgeschwindigkeit nicht mehr ankommt, sondern darum, die richtigen Aktionen und Prioritäten je nach Spiel-Objektkonfigurationen auszuwählen. Es ist nicht möglich, z.B. beliebig schnell ein Paddel zum Abfangen zu bewegen oder beliebig oft Schüsse abzufeuern - das ist mit der allgemeinen Spielszenen-Fortentwicklungsgeschwindigkeit verknüpft und man kann z.B. das Paddel nur um ein Pixel pro Step bewegen und nur alle drei Takte schießen. Und das eigentlich interessante ist, dass dem System nichts vorher einprogrammiert wurde. Es wusste nichts über die Spiele - es hatte nur die Ausgabepixels, den Score, und ein virtuelles Eingabesystem, und fand dann völlig selbstständig heraus, was es machen musste, um einen hohen Score zu erreichen. Das ist atemberaubend. Glauben Sie mir. Nature veröffentlicht nichts, was nicht Hand und Fuß hat.
der_joerg 26.02.2015
5. lernen oder stur ausprobieren?
"Dagegen lernt die DeepMind-KI alle erforderlichen Schritte von Grund auf." Wenn die jetzt doppelt so viele Raumschiffe in der gleichen Zeit abschießen würden oder fehlerlos durchkommen würden, dann müssten wir uns langsam Sorgen machen. So ist das stumpfes Ausprobieren - nix mit lernen. Wenn die KI jetzt 24h am Tag Space Invaders oder Video Pinball spielen dürfte, würde der Erfolg mit "echtem" Lernen doch in wenigen Tagen spürbar sein. Ich hätte jetzt solche Jubelberichte erwartet. Wenn meine jetzt 4jährige Tochter mit Space Invaders anfangen würde, könnte sie in 5 Jahren die KI in GTA immer noch locker schlagen. Wobei sie natürlich nicht rund um die Uhr spielen dürfte. Ich setz mich jedenfalls nicht so schnell in ein Googlemobil.
Alle Kommentare öffnen
Seite 1

© SPIEGEL ONLINE 2015
Alle Rechte vorbehalten
Vervielfältigung nur mit Genehmigung der SPIEGELnet GmbH


Die Homepage wurde aktualisiert. Jetzt aufrufen.
Hinweis nicht mehr anzeigen.