Le premier est suédois, professeur de philosophie à Oxford et l’un des leaders du courant transhumaniste, depuis qu’il a fondé en 1998 la World Transhumanist Association (devenue depuis Humanity+). En 2014, il prédisait dans son livre Superintelligence : chemins, dangers, stratégies, recommandé par Elon Musk et Bill Gates, l’arrivée prochaine d’une superintelligence qui surpassera l’intelligence humaine. Le second, médecin, co-fondateur de Doctissimo et entrepreneur, est devenu le porte-parole français le plus virulent du débat sur l’avenir de l’intelligence artificielle, et se défend d'être transhumaniste. Nick Bostrom et Laurent Alexandre se sont succédés à Paris sur la scène de l’USI, conférence dédiée aux professionnels et à l'avenir du numérique et du monde. Usbek & Rica s'est glissé dans le public pour tenter de résoudre l'équation suivante : deux gourous + une IA = zéro chance de s'en sortir ?

« Je vous demande maintenant d’accrocher vos ceintures de sécurité car nous allons traverser une petite zone de turbulences : merci d’accueillir Laurent Alexandre ». L’introduction réservée au médecin/entrepreneur/expert en nouvelles technologies qui prend place sur scène ce mardi 20 juin, au Carrousel du Louvre, est flatteuse : Laurent Alexandre n’a en effet pas l’habitude d’endormir son public, même quand il fait 35°C. Transformer ses conférences en zones de turbulence est, en quelque sorte, sa marque de fabrique.

Laurent Alexandre, le 20 juin 2017 à l'USI.



Jusqu’ici, l’intelligence était artisanale

Son intervention le 19 janvier dernier, au Sénat, lors de l'audition publique organisée en compagnie de politiques et de penseurs de l'intelligence artificielle, avait fait sensation sur Facebook, avec plus d’1 million de vues en une semaine. Le co-fondateur de Doctissimo et président de DNAVision, société belge de séquençage du génome humain, annonçait alors sans sourciller : « Dans un siècle, on a Matrix ! ».

Cinq mois plus tard, l’échéance s’est rapprochée mais Laurent Alexandre est sur la même ligne : l’homme ne prend pas la mesure des bouleversements qui vont accompagner le passage « d’une pénurie à un tsunami d’intelligence ». « Jusqu’ici, l’intelligence était artisanale, on la produisait au départ en position du missionnaire ou équivalent… Avec l’IA, nous industrialisons sa fabrique. Nous sommes le siècle de l’explosion des intelligences, nous allons vivre avec une ménagerie complète d’intelligences. »

« Les chatbots sont de misérables scripts qui plaisent au CAC40 parce que ça fait moderne. »

« L’intelligence est un tabou. Les élites intellectuelles ne souhaitent pas qu’on en parle… Peut-être parce qu’elles souhaitent implicitement en garder le monopole », poursuit-il. Laurent Alexandre passe en revue les différents âges de l’IA jusqu'à l’époque actuelle, où tout le monde s'en réclame : « Les chatbots sont de misérables scripts qui plaisent au Cac40 parce que ça fait moderne ». Cela dit, « il faudrait être très con pour ne pas mettre de l’IA partout même quand il n’y en a pas vraiment ».

Il moque la prudence de Yann Le Cun, le monsieur IA de Facebook, qui croit nous rassurer en expliquant que le scénario d’une IA qui arrive au niveau de l’homme n’est « pas envisageable avant une vingtaine d’années ». Une « conscience de l’IA » va t-elle émerger pour autant ? « Nous n’en savons rien. Mais il faut l’étudier. C’est l’un des objets d’Open AI, projets sur lequel Elon Musk a mis un milliard de dollars. »

L'IA, machine à populisme ?

Prédire les progrès de l'IA ne constitue pas, à vrai dire, le coeur de son argumentaire. Pour Laurent Alexandre, le danger n’est pas tant que l'intelligence artificielle dépasse l’homme, mais bien qu’elle en dépasse certains bien plus que d’autres. « Il ne faut pas que nous fassions avec l’IA comme faisaient les armées napoléoniennes avec les blessés et les malades : on les abandonnait dans les fermes. C’est ce que nous faisons avec les travailleurs pas bien qualifiés face à l’IA faible. L’IA, si nous n’y prenons pas garde, sera la plus grande machine à créer du populisme de tous les temps. »

« Il y a plein de pognon à faire avec le neurohacking. Je vous invite tous à aller dans cette direction ! »

Comment tenir tête aux machines ? En musclant nos cerveaux par l'école, par la formation, et non pas en les fusionnant avec la technologie comme en rêve la Silicon Valley, martèle le serial entrepreneur, qui lance, fidèle à sa réputation d'adepte de la formule qui claque : « Le XXIe siècle a vraiment commencé en avril 2017, avec le lancement de Neuralink par Elon Musk ».

Avec sa nouvelle entreprise, Neuralink, il a pour objectif de créer des interfaces homme-machine qui permettraient, à terme, de renforcer nos capacités cognitives en agissant directement sur notre cerveau.

Même s'il est persuadé que l'on finira bien par « tuer la mort » grâce aux ambitions des démiurges de la Silicon Valley - « oui, c'est dur à admettre pour nous qui sommes une des dernières générations mortelles », augmenter nos cerveaux comme le veut le patron de Tesla et de Space X s'apparente à une solution de « pompiers pyromanes », estime Laurent Alexandre, qui prédit au passage un bel avenir au neurohacking : « Il y a plein de pognon à faire avec le neurohacking. Je vous invite tous à aller dans cette direction ! »

Le show se poursuit avec quelques autres formules bien senties. « Depuis qu’on a zigouillé Néanderthal », l'homme est seul mais il s'apprête à ne plus l'être, nous dit-il, en nous invitant à se battre contre les implants cérébraux et cette fusion homme-machine qui serait « le fascisme du XXIe siècle ». Et le médecin d'identifier les trois lignes rouges qu'il convient, selon lui, de ne surtout pas franchir. Il faut d'abord « sauver le réel et sauver notre corps face aux post-humanistes de la Silicon Valley » et se battre contre « la vision Kurzweilienne » du futur. Deuzio, « défendre notre autonomie, pour pouvoir sortir de la matrice ». Troisièmement, « garder le hasard contre une société d'IA pure avec sélection algorithmique. La société algorithmique où tout serait prévu serait un cauchemar ».

« Développons des éthiciens de l’intelligence, ce sera le plus beau métier du XXIe siècle. Et je vous invite à mettre vos enfants dans cette voie-là », conclut Laurent Alexandre. L'une de ses dernières slides ? « Ne jouons pas aux cons ».



Ndlr : depuis la rédaction de cet article, l'USI a mis en ligne la vidéo de l'intervention de Laurent Alexandre. Retrouvez là ici, en intégralité :

L’humanité doit simplement se préparer à être humiliée comme l'a été Lee Sedol, le champion de jeu de Go, battu en mars 2016 par AlphaGO, l'IA mise au point par Google DeepMind...

La veille, lundi 19 juin, Nick Bostrom disposait lui aussi de soixante minutes pour parler IA. Mais cette fois, pas de politique ni de démocratie à sauver face au péril d’une intelligence des machines qui creusera les écarts de QI : Nick Bostrom, philosophe suédois et chantre du transhumanisme, prévoit lui l’arrivée d’une « superintelligence », le terme qui a donné son titre à son livre référence. D'après lui, l’humanité doit simplement se préparer à être humiliée comme l'a été Lee Sedol, le champion de jeu de Go, battu en mars 2016 par AlphaGO, l'IA mise au point par Google DeepMind...

Superintelligence, 2014.

Nick Bostrom rejoint en cela les adeptes de la thèse de la Singularité, cette théorie qui anticipe un point de rupture prochain où l’intelligence des machines dépassera celle des humains, et qui est très loin d'être partagée par la communauté scientifique. L'expert français Jean-Gabriel Ganascia n'y voit d'ailleurs rien de moins qu'un « mythe », entretenu par les GAFA pour masquer leur intention dans la sphère politique : celle de supplanter les Etats...

Pour Bostrom, l’histoire de l’humanité s'apprête donc à être chamboulée. « Deux événements ont marqué notre histoire : la révolution agricole et la révolution industrielle. L’IA sera le 3ème événement, mais la transition sera beaucoup plus radicale. » L’intelligence d’une machine n’a pas besoin de tenir dans une boîte crânienne. Elle sera donc bien supérieure à celle de l’homme, promet Nick Bostrom, qui montre les images d’une IA capable de résoudre un Rubik’s cube en quelques fractions de seconde, puis les performances d'une IA peintre et d'une IA musicienne…

« Si vous pouvez faire une amélioration de 1% dans l’algorithme de recherche de Google, vous faites une découverte qui vaut des centaines de millions de dollars »

Le concept d'intelligence artificielle est né en 1956 et a connu plusieurs hivers, mais « il n’y en aura pas d’autres », promet Nick Bostrom. « Parce que la technologie est déjà assez bonne pour être largement déployée et pertinente commercialement dans de nombreux secteurs : moteurs de recherche, reconnaissance de la parole, voiture autonome… C’est là que ça décolle. Si vous pouvez faire une amélioration de 1% dans l’algorithme de recherche de Google, vous faites une découverte qui vaut des centaines de millions de dollars. Je pense donc qu’y aura des investissements de plus en plus importants jusqu’à ce que l’IA réussisse à dépasser l'homme. »

Dis, quand est-ce qu'on y arrive ?

À quelle échéance l’IA pourrait-elle atteindre le niveau de l’homme, puis le dépasser ? L’avantage, avec les technoprophètes comme Nick Bostrom, c'est qu'ils peuvent lancer des estimations au doigt mouillé en toute décontraction. Le philosophe fait défiler une par une les déclarations de Lee Sedol, le champion de Go, de 2015 à 2016, au fur et à mesure qu’AlphaGO gagne en puissance. « Six mois plus tard, AlphaGo atteignait son niveau. À quel moment atteint-on donc la superintelligence ? »

Nick Bostrom montre la perte de confiance du champion de Go face à AlphaGo.

A en croire Bostrom, il faudrait d'abord atteindre une IA qui se mesure à l'homme ( « human level AI ») : « Il y a beaucoup d’incertitudes : ça va probablement prendre un peu de temps, c’est difficile.... Plusieurs dizaines d'années. » Mais ensuite, ça s'accélère, prophétise le philosophe. « Une fois que l'intelligence des machines a atteint celle de l'homme, je pense que la superintelligence arrive vite : ça prendra peut être des heures, des jours, des mois ou des années. Mais pas des dizaines d’années, à mon avis ».

Les défis qu'il reste à relever à court terme n'ont pas l'air de l'inquiéter. Les arbitrages éthiques qu'auront à faire les voitures autonomes (écraser plutôt trois enfants ou deux mamies ?) ? « C’est peut-être le problème éthique le moins important »... « Si, en moyenne, ces IA sont plus sûres qu'un humain qui est bien reposé et sobre, alors mettons-les sur les routes. 1,2 million de gens sont tués chaque année sur la route, des centaines et des centaines d'heures sont gaspillées dans les embouteillages, donc dès que la technologie est au point, allons-y ».

Nick Bostrom, le 19 juin 2017 à l'USI.

Même sérénité face à la discrimination algorithmique, aux bulles de filtres, aux robots tueurs ou à la masculinisation de l’IA et de la robotique. « Pour moi, toutes ces questions sont des variations pas fondamentalement différentes des questions que l'on se pose pour toute nouvelle technologie. Quand on a eu des téléphones portables, il a fallu se demander comment vivre tranquillement sans qu’ils sonnent au cinéma. Et on a établi une règle. »

« Supposons que les chercheurs arrivent à faire des machines superintelligentes. Comment tu contrôles quelque chose qui est plus intelligent que toi ? »

Pour les enjeux de long terme, en revanche, ça se complique. Nick Bostrom en profite d'ailleurs pour présenter ses excuses aux lecteurs qu'il a « déprimés » avec son livre Superintelligence en parlant trop longuement de l'enjeu du contrôle de l'IA. « Supposons que les chercheurs arrivent à faire des machines superintelligentes. Comment tu contrôles quelque chose qui est plus intelligent que toi ? Comment tu t'assures qu'il fera ce à quoi tu le destinais ? ».



Il rappelle pour cela sa thèse sur l'« orthogonalité » (« orthogonality thesis »), selon laquelle il n'y a pas de connexion entre le niveau d'intelligence et les buts qu'on se fixe. « Vous le voyez bien chez les humains : certains sont très intelligents et sont des connards, et inversement. Toutes les combinaisons sont possibles. » Ce qui n'empêche pas le philosophe de souligner l'importance de ces méthodes de contrôle (appelées « l'alignement », en recherche ), et d'applaudir des initiatives comme Partnership on AI ou Open AI. Elles témoignent de l'intérêt récent des gouvernements et de l'industrie pour réfléchir à l'éthique dans l'IA, et tenter de limiter autant que possible la zone de turbulences...



Ndlr : depuis la rédaction de cet article, l'USI a mis en ligne la vidéo de l'intervention de Nick Bostrom. Retrouvez là ici, en intégralité :