Méga-PixelsUn programme de Google DeepMind a relevé le défi du jeu de go, sur lequel planchent depuis des décennies les chercheurs en intelligence artificielle. Une étape historique.

Le jeu de go représente un défi pour l'intelligence artificielle. QUENTIN HUGON / LE MONDE

Coup de maître dans l’univers de l’intelligence artificielle. Pour la première fois, un ordinateur a battu un joueur de go professionnel, comme le détaille un article de recherche publié dans la revue Nature du jeudi 28 janvier. Ses vingt auteurs sont tous membres de Google DeepMind, une entreprise britannique créée en 2010 et qui a été rachetée en 2014 par le géant californien. Leur algorithme, AlphaGo, a battu l’actuel champion européen, Fan Hui, par cinq victoires à zéro en octobre 2015 à Londres. Il n’a en outre perdu qu’une partie sur 500 contre les meilleurs programmes déjà sur le marché. Fan Hui a, lui, mieux résisté dans des parties rapides, perdant 3 à 2.

« C’est époustouflant ! », s’exclame Olivier Teytaud, spécialiste en intelligence artificielle à l’Institut national de recherche dédié au numérique (Inria) et auteur de MoGo, un programme qui avait obtenu en 2009 une première victoire contre un professionnel sur une version réduite du plateau de jeu. « L’équipe de Google est une classe au-dessus de tout le monde. La différence de niveau est gigantesque », ajoute Rémi Coulom, ancien maître de conférences à l’université Lille-III, aujourd’hui développeur indépendant dans l’intelligence artificielle pour les jeux. Il est surtout le créateur de Crazystone, un des deux meilleurs programmes actuels de jeu. « Je n’attendais pas de tels progrès avant dix ou quinze ans. C’est très impressionnant », complète Tristan Cazenave, professeur à l’université Paris-Dauphine, spécialiste de la programmation des jeux.

Cet exploit est annoncé quasiment vingt ans jour pour jour après la première défaite, lors d’une partie classique, du champion d’échecs Garry Kasparov contre l’ordinateur d’IBM Deep Blue, qui avait battu le Russe en match complet en 1997. L’équivalent pour le go de cette rencontre mythique est annoncé par Google DeepMind en mars à Séoul, lorsque AlphaGo affrontera le meilleur joueur du monde actuel, le Sud-Coréen Lee Sedol.

Réseaux de neurones

Le jeu de go a été inventé en Chine il y a environ trois mille ans et est arrivé en Europe il y a seulement un siècle. Deux joueurs tentent de se partager un plateau de 19 lignes sur 19 en créant des territoires qu’ils délimitent grâce à des frontières formées de pierres noires et blanches. Il est très difficile à simuler, tellement le nombre de combinaisons à explorer est grand, estimé à 10170 (un suivi de 170 zéros). Contre 10120 environ aux échecs. Jusqu’à présent, les programmes n’avaient battu les professionnels que dans des parties dites à handicap, avec quatre pierres d’avance.

Le deep learning fait aussi merveille dans la reconnaissance vocale et visuelle

Profitant de la puissance des ordinateurs, les meilleurs algorithmes actuels, Crazystone ou Zen, évaluent la pertinence des coups en jouant des milliers de parties aléatoires. Le pourcentage de parties gagnantes donne une estimation de la probabilité de victoire finale. Une version améliorée de ces simulations dites Monte-Carlo a été proposée au milieu des années 2000. « Le Monte-Carlo est devenu plus intelligent. Au lieu de simuler n’importe comment, on simule de plus en plus les bons coups. Cela permet de fouiller les bonnes zones de l’arbre des possibilités », résume Olivier Teytaud.

Pour faire encore mieux, l’équipe de DeepMind a ajouté deux ingrédients qui ont prouvé leur efficacité dans d’autres domaines : les réseaux de neurones profonds (ou « deep learning ») et l’apprentissage renforcé.

La première technique remonte aux prémices de l’intelligence artificielle. Il s’agit d’une fonction mathématique aux paramètres ajustables de manière à fournir la meilleure réponse possible. Cette fonction est en fait la combinaison de milliers de variables reliées entre elles comme un réseau de neurones biologiques. Grâce notamment au Français Yann LeCun, une percée a été effectuée dans les années 1990 afin de calculer rapidement et efficacement les meilleures « connexions ».

Dans les années 2000, ces techniques ont considérablement amélioré la reconnaissance vocale, permettant la réalisation des assistants vocaux des mobiles, Siri, Cortana ou Google Now. Le deep learning fait aussi merveille dans la reconnaissance d’images, surpassant là aussi les méthodes antérieures. Son succès repose notamment sur des quantités énormes d’informations (images, textes, sons…) nécessaires pour « stimuler » et construire le réseau de neurones. AlphaGo s’est ainsi nourri de 30 millions de mouvements de joueurs professionnels.

Une seconde technique, spécialité de DeepMind, est l’apprentissage renforcé. En faisant jouer l’algorithme contre lui-même, les chercheurs améliorent leur réseau neuronal. C’est avec ces techniques que l’entreprise avait déjà fait parler d’elle en février 2015 en réalisant une machine capable de jouer à 49 jeux vidéo sans en connaître les règles et à parfois gagner.

Facebook distancé

« Ces trois méthodes ne sont pas nouvelles, mais la combinaison des trois pour le go l’est », constate Yann LeCun, à la tête du laboratoire d’intelligence artificielle de Facebook. Un de ses collègues, Yuandong Tian, a d’ailleurs lui-même proposé récemment un programme, Darkforest, utilisant le deep learning et qui, selon des résultats à paraître, serait au niveau de Crazystone ou de Zen. « Le nouveau DarkForest, qui incorpore l’apprentissage par renforcement, sera prêt dans quelques mois », indique Yann LeCun.

Les deux entreprises vedettes de la Silicon Valley se concurrencent donc aussi sur les plateaux de go. Avec quelques différences. Le logiciel de Facebook est déjà en ligne sur les plateformes de jeu de go et chacun peut l’évaluer. Google a opté pour le secret et la publication d’un article de recherche dans une revue à comité de lecture. Mais aussi pour le spectaculaire, avec l’annonce du match de mars à Séoul, équivalent du fameux affrontement entre IBM et Kasparov.

Lire le portrait Yann LeCun, l’intelligence en réseaux

L’issue de ce match « humain contre machine » est loin d’être certaine. « J’aurai le privilège d’affronter pour la première fois un ordinateur. J’ai entendu dire qu’AlphaGo est étonnamment fort et s’améliorera encore, mais je suis confiant que je pourrai gagner, au moins cette fois-ci », a déclaré Lee Sedol par l’entremise de la revue Nature. Ce dernier est bien mieux classé que Fan Hui. « Il y a un fossé important entre AlphaGo et les autres programmes. Celui-ci n’est pas très loin des meilleurs joueurs du monde, mais il n’est pas encore au niveau de Sedol, même s’il s’en est rapproché sacrément. Battre Sedol en mars, c’est ambitieux. Mais vu les avancées effectuées en un an, ils peuvent encore progresser », estime Tristan Cazenave.

Ces progrès en intelligence artificielle permettent aux géants du numérique de mieux traiter les masses de données qu’ils génèrent, mais aussi de les analyser pour proposer de meilleurs services, comme la recommandation de contenus, par exemple. Lors de la conférence de presse organisée par Nature mardi 26 janvier, Demis Hassabis, fondateur de DeepMind, était peu disert sur les perspectives futures, évoquant « la modélisation climatique, le diagnostic médical ou d’autres jeux, comme le poker ».

Quant aux questions éthiques soulevées par ces progrès des machines supplantant l’humain, Demis Hassabis a répondu : « Nos systèmes apprennent par eux-mêmes de l’expérience, mais c’est nous qui décidons de ce sur quoi ils apprennent. On parle d’un jeu. Complexe, certes, mais il est plus accessible aux ordinateurs que des problèmes généraux du monde réel. Ces technologies doivent bénéficier à tous. En outre, nous nous sommes mis d’accord avec Google pour qu’elles ne soient pas utilisées à des fins militaires. »

D’ici à mars, son équipe pourra méditer l’adage coréen rappelé par une journaliste lors de la conférence de presse : « Au go, si tu veux seulement gagner, tu ne peux pas gagner. »