Dans une revue interne à Google, deux collaborateurs du projet de recherche sur l’intelligence artificielle, lancé en 2011 sous le nom de Google Brain, Martin Abadi et David Andersen, signent, le 24 octobre dernier, un article au titre mystérieux : « Apprendre à protéger les communications contre une cryptographie hostile artificielle ».

Cet article, repris ensuite par quelques journaux scientifiques américains, puis, moins précisément, par d’autres medias, établit que deux « réseaux neuronaux » (Intelligences Artificielles) peuvent créer des codes secrets pour communiquer entre eux en se protégeant de toute autre intelligence, artificielle ou humaine. Plus précisément, les deux auteurs ont donné à deux Intelligences Artificielles, qu’ils ont aimablement nommé Alice et Bob, les moyens de dialoguer sans qu’une troisième, nommée Eve, puisse avoir accès à leurs échanges. Alice et Bob ont alors développé, à la surprise de tous, des formes de cryptage, c’est-à-dire des langues, indéchiffrables pour tous, même pour leurs créateurs.

Les Intelligences artificielles sont très utiles, pour suppléer les hommes dans des taches qu’elles accomplissent mieux qu’eux et plus vite ; et chercher à comprendre comment ces Intelligences Artificielles peuvent inventer des langues pour véhiculer des messages confidentiels est aussi utile, car chacun d’entre nous peut avoir intérêt à créer une langue qui lui soit personnelle et à ne la partager qu’avec ceux en qui il a confiance.

Il n’empêche : cela peut aussi etre terrifiant. On sait en effet, depuis longtemps, que ces intelligences peuvent aussi prendre leur autonomie ; qu’elles peuvent d’abord considérer que leur mission est de contrecarrer ceux de nos comportements qui, à leurs yeux, nous nuiraient ; qu’elles peuvent ainsi penser que l’humanité courre à sa perte et décider, pour son bien, de l’arrêter à temps. Mais elles pourront alors aussi agir contre l’humanité, dans leur seul intérêt ; surtout si elles pensent que, à terme, nous aurons intérêt à les détruire : elles peuvent alors nous combattre, en légitime défense.

Là, vient évidemment le pire, qu’annonce cet article, apparemment purement théorique : si les intelligences artificielles réussissent à inventer des langues irréversiblement indéchiffrables par les humains, nous sommes perdus. Le pire des pronostics se réaliseront. L’humanité, à la recherche folle de l’immortalité, aurait, avant d’avoir réussi à transférer la conscience de soi dans ces machines, pour assurer sa propre immortalité, créé des Intelligences Artificielles immortelles, capables de travailler en secret pour la détruire.

Doit-on arrêter cela ? Sans aucun doute. L’humanité a déjà assez d’ennemis, à commencer par elle-même, pour ne pas s’en inventer d’autres.

Les auteurs de l’article annoncent pourtant benoitement qu’ils veulent aller beaucoup plus loin encore, et enseigner aux Intelligences Artificielles d’autres techniques de communications secrètes (telle la steganographie qui consiste à cacher des messages à l’intérieur d’autres, sans même les crypter).

Il est urgent qu’une grande conférence planétaire sur l’intelligence artificielle réunisse savants et gouvernants pour décider d’un moratoire sur ces recherches, comme on l’a fait dans d’autres domaines, avec plus ou moins de succès (les armes chimiques, les manipulations sur les cellules souches). On peut encore tirer le meilleur de la science. A condition de ne pas la laisser nous détruire.







