On nous parle encore d'inquiétudes vis-à-vis de dérives potentielles d'une Intelligence Artificielle. De voitures automatiques qui préfèreraient blesser un humain plutôt qu'occasionner des dégâts matériels trop couteux, ou de programmes informatiques qui espionneraient nos pratiques sur Internet pour mieux nous faire consommer. Que « L'intelligence artificielle pourrait mettre fin à l'humanité » par ci ou que « Bill Gates est « préoccupé par la superintelligence » artificielle » par là. Avant de montrer du doigt la machine diabolique et ressortir le mythe du Golem, donnons la parole à un collègue spécialiste de ces sujets Frédéric Alexandre et essayons de mieux définir de quoi nous parlons ici.

Que veut dire "Intelligence"? Qu'est ce qui est "Artificiel" ici ?

Les deux facettes de l'Intelligence

Il y a eu de nombreuses façons d'essayer de cerner ce concept complexe qu'est l'intelligence, mais une nous sera particulièrement utile ici: la distinction que l'on peut faire, à la suite de Pierre Oléron [L'intelligence – 1991 de P. Oleron, Que sais-je?], entre Intelligence géométrique et Intelligence sociale (mais déjà Pascal distinguait Esprit de géométrie et Esprit de finesse). L'intelligence géométrique est rigoureuse et exclut la contradiction et l'affectivité. On la retrouve en particulier dans nos capacités de raisonnement logique. Elle s'oppose à une intelligence plus intuitive et plus globale, prenant en compte nos motivations et les valeurs émotionnelles que nous mettons sur les choses.

Cette distinction a été beaucoup utilisée pour souligner les limites de l'IA. On la retrouve dans la chambre chinoise de John Searle mais aussi dans le problème de l'ancrage du symbole de Stevan Harnard: C'est bien d'avoir des algorithmes puissants et combinatoires pour manipuler des règles et des symboles, mais quand on veut les projeter sur des problèmes concrets, il est difficile de les ancrer dans le monde réel. Si une règle me dit de faire confiance à un ami, comme puis-je définir (reconnaître) un ami? Si une règle me dit de préférer un petit désagrément physique à une grosse perte financière, comment définir "petit" et "gros" ici? Autant de pratiques que l'humain fait naturellement avec son "esprit de finesse" mais qu'une machine ne peut pas faire si elle n'est pas capable d'ancrer les objets qu'elle manipule dans le monde réel.

Qu'est-ce qui est artificiel dans l'IA?

Depuis ses origines, l'IA a beaucoup progressé et elle est capable de résoudre des problèmes de plus en plus difficiles, mais dans tous ces cas, ce qui est automatisé, c'est le raisonnement, la partie géométrique de notre intelligence. Ceci est dû à des algorithmes mathématiques et à des approches heuristiques de plus en plus perfectionnés (le Machine Learning) ainsi qu'aux progrès technologiques qui nous permettent de manipuler des bases de données de plus en plus volumineuses (le Big Data), mais les concepteurs de ces machines restent fondamentalement confrontés aux mêmes problèmes que leurs anciens: ancrer ces raisonnements super-puissants dans la réalité. Comme leur prédécesseurs, ils le font dans la définition de fonction de coût ou de distance et dans l'élaboration de corpus d'exemples et de contre-exemples qui donnent à la machine les outils pour se construire ses limites entre ami et ennemi ou entre gros et petit. Mais cette intelligence sociale, cet aspect de finesse n'est pas le produit une machine artificielle mais bien du concepteur qui l'y a introduit.

Faut-il avoir peur de l'IA ?

Il est effectivement légitime de s'inquiéter d'une machine ayant une capacité d'inférence bien supérieure à la nôtre et de se demander au service de quoi et de qui elle met cette capacité. Or, il est troublant de constater que ces firmes qui s'inquiètent des dérives potentielles de l'IA tout en produisant des voitures automatiques et des logiciels de profilage sur internet, acceptent de publier leurs algorithmes (en fait, ils sont pour la plupart issus d'équipes de recherche universitaires) mais considèrent comme secrets de fabrication ces fonctions de coût et ces corpus qui servent à étalonner ces machines, alors que le vrai risque est probablement dans la constitution (par main d'homme rappelons-le) de cet ancrage des symboles... Il conviendrait en effet de se demander, si on constatait effectivement la malfaisance d'un tel système, si la responsabilité serait à la machine qui a déployé toutes ses rouages pour exécuter son action ou à l'humain qui lui a inculqué des notions de valeurs que la machine reste incapable d'appréhender.

Quelques considérations biologiques

Pour creuser un peu plus cette question, tournons nous vers les neurosciences qui, avec Antonio Damasio et son Erreur de Descartes, nous ont donné des outils pour mieux comprendre ces phénomènes. En effet, dès les années 90, l'auteur nous a alerté sur ce qui pouvait sembler un paradoxe: le cortex préfrontal, siège de l'intelligence la plus formelle, du raisonnement et de nos capacités mathématiques est aussi une des structures cérébrales les plus fortement liées à notre système limbique, siège de nos émotions et de notre intelligence sociale. Nous prenons nos décisions non seulement aidés par les capacités logiques et combinatoires de notre cortex préfrontal mais aussi sous le contrôle de notre système limbique qui nous dit ce qui est bien ou mal pour nous, notre propre survie et l'harmonie de notre groupe social. Et ce système limbique, pour se forger ces catégories d'ami et d'ennemi, de petite douleur et de grosse perte financière, se sert de notre corps, de ses capteurs de douleur et de plaisir et de ses réflexes inconditionnels qui nous font avoir peur du vide et être attiré par le visage d'un congénère. Dans notre cerveau, intelligences géométrique et émotionnelle sont intimement liées et se développent de concert au cours de nos expériences. C'est parce que nous avons un corps souffrant et capable de plaisir que nous sommes capables d'empathie. C'est aussi pour cette raison que nous sommes responsables quand nous faisons souffrir un congénère: nous avions tout l'outillage pour ancrer notre décision dans le monde réel et comprendre dans notre chair les conséquences de nos actes (on peut d'ailleurs constater que certaines pathologies de ces circuits peuvent permettre de déclarer quelqu'un irresponsable de ses actes...).

Alors, faut-il vraiment avoir peur de l'IA ?

On peut maintenant répondre à cette question en commençant par y apporter certaines nuances. S'il semble vain de militer pour ne plus appeler Intelligence Artificielle un système qui n'a pas toutes les caractéristiques de l'intelligence, on peut au moins souligner que ce n'est pas une IA autonome et que la responsabilité de ses actes reste donc à imputer à ses concepteurs et non à la machine elle-même. Partant de ce constat, plutôt que de s'effrayer de ce type de machines incontrôlables, il peut sembler plus pertinent de demander à leurs concepteurs (qui, en tant que signataires d'appels à la vigilance devraient être particulièrement réceptifs à ce type de demandes) plus de transparence sur la manière dont ils ont doté ces machines de valeurs émotionnelles sur les objets qui les environnent.

Pour maintenant conclure sur le pouvoir de nuisance potentiel de ces machines à moitié intelligentes, la crainte principale est probablement relative au fait que ces deux aspects de l'intelligence, géométrique et émotionnelle, sont faiblement liés, dû au fait que la partie émotionnelle est insufflée indirectement par un opérateur humain et non pas issue d'une vraie expérience corporelle du ressenti du monde. Comme Damasio nous a expliqué que notre équilibre cognitif reposait sur la co-évolution de l'acquisition de valeurs émotionnelles et du développement de méthodes de raisonnement formel, c'est probablement ce type d'équilibre qu'il faudrait rechercher. Là aussi, cette revendication n'est pas nouvelle et s'est souvent exprimée par les défenseurs d'une approche incarnée de la cognition: on pourra plus légitimement demander un niveau de responsabilité à une machine le jour où on l'aura dotée d'un corps, doué de souffrance et de plaisir, pour vraiment expérimenter le monde. En attendant, il ne faudra pas se leurrer, en exprimant des craintes, on ne fera que s'adresser aux concepteurs humains de ces machines et la principale recommandation sera donc de leur demander d'arrêter de se cacher derrière leurs créations et d'assumer les valeurs qu'ils leur ont insufflées..

Frédéric Alexandre.

Illustrations de Nicolas Rougier.