Pour la première fois, quatre intelligences artificielles ont affronté trois joueurs, un professionnel et deux amateurs, sur le jeu de stratégie Starcraft. Et c'est le joueur professionnel qui l'a emporté haut la main.

CherryPi, l'intelligence artificielle de Facebook en plein entraînement dans StarCraft
CherryPi, l'intelligence artificielle de Facebook en plein entraînement dans StarCraft © Twitch

L'intelligence artificielle est un as du jeu de Go mais pas encore de Starcraft! C'est la première fois qu'était organisée la semaine dernière à Séoul (Corée du Sud) une compétition de ce jeu vidéo de stratégie en temps réel entre des humains et des intelligences artificielles. Il n'aura fallu que 27 minutes au champion sud-coréen Song Byung-Gu alias Stork pour battre les quatre logiciels en lice, dont CherryPi, un logiciel développé par... une équipe de Facebook.

Pourquoi une supériorité sur le jeu de Go mais pas Starcraft? 

Pourtant, ces derniers mois l'intelligence artificielle a démontré avec AlphaGo qu'elle était capable de battre les meilleurs joueurs de jeu de Go. Alors pourquoi pas Starcraft? Et bien, pour deux raisons :

La première c'est la complexité du jeu . Il se déroule au XXVIe siècle, dans une galaxie où trois espèces s'affrontent (les protoss, les terrans et les Zergs). Le but pour le joueur, qui incarne une des trois espèces, est de conquérir un territoire. Pour cela, il faut récolter des minéraux, construire des bâtiments, faire évoluer ses soldats, les faire défendre sa base, attaquer celle du voisin ou explorer la carte. Cela demande à la fois aux joueurs d'utiliser leur mémoire, de penser à leurs stocks de ressources tout en anticipant les attaques des ennemis. Les actions à effectuer sont beaucoup plus nombreuses et complexes que celles d'une partie d'échec ou de jeu de Go et surtout il faut prendre des risques et ça l'intelligence artificielle n'aime pas ça. 

Ces intelligences artificielles ont tout de même eu un avantage sur les humains : certaines ont été capables de réaliser 20 000 actions par minute, là où notre joueur professionnel n'en fait pas plus de 300. C'est d'ailleurs cela qui leur a permis de battre les deux joueurs amateurs mais cela n'a pas suffit pour notre champion Song Byung-Gu, beaucoup plus stratège, même si ce dernier reconnait avoir été surpris par la capacité de défense des logiciels. 

L'utilisation de l'apprentissage profond pourrait rapidement changer la donne.

Deuxième raison de cette défaite : les intelligences artificielles qui ont été utilisées ici n'utilisaient pas l'apprentissage profond.  C'est cette méthode que l'entreprise DeepMind, filiale de Google, a utilisé pour former AlphaGo et battre le champion de jeu de Go. L'apprentissage profond permet à la machine d'apprendre toute seule en jouant contre elle-même ou en visionnant des milliers de parties. Ce n'était pas possible jusqu'ici dans Starcraft. Sauf que cet été, Blizzard Entertainment, l'éditeur du jeu a annoncé avoir passé un partenariat justement avec DeepMind pour permettre cet apprentissage automatique dans Starcraft 2. Et là, la domination de l'humain sur l'intelligence artificielle pourrait ne pas durer très longtemps dans le jeu. Pour rappel, quand les créateurs d'AlphaGo ont annoncé s'attaquer au jeu de Go, les spécialistes leur donnaient au moins 10 ans pour battre le meilleur joueur. Un an plus tard, c'était plié.    

Et si les chercheurs en intelligence artificielle s'intéressent à Starcraft c'est parce que le jeu permet d'entraîner les logiciels à réaliser des tâches complexes. Ce n'est pas la première fois que les jeux vidéo sont utilisés dans ce but : GTA 5 est par exemple utilisé pour entraîner les logiciels des voitures autonomes.

L'équipe
Mots-clés :
Nous contacter
Ce contenu n'est pas ouvert aux commentaires.