Deep-Q-Network: Google-Software lernt Games schneller als Sie
Aktualisiert

Deep-Q-NetworkGoogle-Software lernt Games schneller als Sie

Erstmals hat ein Programm von sich aus gelernt, verschiedene Games zu spielen. Googles Deep-Q-Network knackte dabei um ein Haar menschliche Highscores.

von
pst
1 / 5
Das von Googles DeepMind-Projekt entwickelte Deep-Q-Network ist eine künstliche Intelligenz, die sich selber das Spielen von Games beibringt. In verschiedenen Tests zockte das Programm 49 Atari-2600-Klassiker.

Das von Googles DeepMind-Projekt entwickelte Deep-Q-Network ist eine künstliche Intelligenz, die sich selber das Spielen von Games beibringt. In verschiedenen Tests zockte das Programm 49 Atari-2600-Klassiker.

Flickr/Association WDA
Unter den vom Computer gespielten Computerspielen war auch der Kult-Titel «Space Invaders».

Unter den vom Computer gespielten Computerspielen war auch der Kult-Titel «Space Invaders».

Nach relativ kurzer Zeit war DQN fähig, mit den besten menschlichen Versuchsspielern mitzuhalten.

Nach relativ kurzer Zeit war DQN fähig, mit den besten menschlichen Versuchsspielern mitzuhalten.

Schon länger gibt es Schachcomputer und Programme, die andere Spiele spielen. Um dies zu bewerkstelligen, mussten der entsprechenden Software bisher allerdings immer die Spielregeln einprogrammiert werden.

Wissenschaftlern von Google ist es jetzt aber gelungen, eine künstliche Intelligenz zu entwickeln, die sich selber verschiedene Computergames beibringen kann. Das auf den Namen Deep-Q-Network (DQN) getaufte Programm lernte von sich aus, 49 Games auf der Retro-Konsole Atari 2600 zu zocken. Am Ende der Tests schlug DQN sogar fast die Highscores routinierter menschlicher Gamer, wie Wissenschaft.de berichtet.

Deep Q meistert den Spieleklassiker «Space Invaders». (Video: Youtube/NPG Press)

600 Trainingslektionen

Zu den von Deep Q gespielten Games zählten wahre Klassiker wie etwa «Space Invaders» oder «Breakout». Gemäss den Google-Forschern war an DQNs Lernkurve bei allen Spielen besonders bemerkenswert, dass das Programm sich mit der Zeit sogar längerfristige Strategien beibringen konnte.

Die optimale Spielweise von «Breakout» ist, dass man sich möglichst schnell eine Bahn am Rand des virtuellen Spielfelds freischiesst, damit der Ball die Wand aus Klötzen von hinten zerstört. Nach rund 600 Übungsrunden hatte DQN diese Strategie intus.

DQN bringt sich «Breakout» bei. (Video: Youtube/NPG Press)

Ähnlich wie das menschliche Gehirn

Das Deep-Q-Network basiert auf einem neuronalen Netzwerk, das ähnlich wie das menschliche Hirn funktioniert. Entwickelt wurde es von einem Forscherteam um Volodymyr Mnih vom Projekt Google DeepMind in London. «Wir wollten mit unserem System demonstrieren, dass es auf Basis nur minimaler Vorinformationen robuste Strategien für ganz unterschiedliche Spiele lernen kann», so Mnih.

Das ist den Wissenschaftlern respektive DQN eindrücklich gelungen. In über der Hälfte der Spiele habe die Software nämlich mehr als drei Viertel der Punktzahl erreicht, die ein Mensch erzielte, berichten die Forscher. Damit lässt das Deep-Q-Network alle früheren lernfähigen Programme weit hinter sich.

Deine Meinung