« Je n’arrête pas de tirer la sonnette d’alarme, mais tant que les gens ne verront pas des robots descendre dans la rue pour tuer tout le monde, ils ne sauront pas comment réagir. » Ces propos inquiétants sont signés Elon Musk, le patron de Tesla et de Space X, et grand adepte des coups médiatiques. Une phrase qui a déclenché, le 24 juillet, un échange cinglant avec le patron de Facebook, Mark Zuckerberg, qui a qualifié ses propos d’« irresponsables », et a vanté les avancées que promettait l’intelligence artificielle (IA) dans le domaine de la santé ou de la sécurité routière. « J’ai discuté avec Mark [Zuckerberg] de tout cela, a répondu publiquement Elon Musk sur Twitter. Sa compréhension du sujet est limitée. »

Si la passe d’armes a fait jaser les internautes ce jour-là, elle est surtout révélatrice d’un domaine mal connu du grand public, où règne la confusion entre les fantasmes de science-fiction, la réalité scientifique, les annonces grandiloquentes et les informations déformées qui circulent à propos de l’IA — comme celle selon laquelle des ingénieurs de Facebook auraient débranché en urgence des programmes ayant inventé leur propre langage. Si le pessimisme affiché d’Elon Musk, qui résonne avec un certain imaginaire collectif, semble, de l’avis de la communauté scientifique, extrêmement exagéré, l’intelligence artificielle soulève toutefois d’autres problèmes bien plus concrets et pressants.

Inquiétudes pour l’emploi

Sera-t-il possible qu’existe un jour une intelligence artificielle avocat ? MANON LOUVARD / LE MONDE

L’une des craintes le plus souvent évoquées à propos des récents progrès de l’IA et de la robotique est leur impact sur l’emploi. Ces technologies vont-elles rendre l’humain obsolète pour certains métiers jusqu’ici épargnés par la mécanisation et la numérisation ? Rien n’est sûr. Plusieurs études sérieuses ont été publiées sur le sujet, qui tendent à… se contredire. Des chercheurs d’Oxford estiment, par exemple, dans une étude publiée en 2013, que 47 % des emplois américains sont menacés. Trois ans plus tard, l’OCDE affirmait, de son côté, que 9 % des emplois étaient menacés dans les vingt et un pays qui la composent.

« Les études s’intéressent juste au phénomène de destructions brutes d’emplois », soulignait Marie-Claire Carrère-Gée, présidente du Conseil d’orientation pour l’emploi, lors d’une audition au Sénat le 19 janvier. « Mais elles ne s’intéressent pas à la création d’emplois », ni même aux transformations des emplois existants que ces technologies pourraient engendrer, selon elle. « A chaque grande vague d’innovation technologique, il y a la crainte d’un chômage massif. Or, l’histoire montre que depuis toujours le progrès technologique a créé des emplois, y compris ces dernières années. »

Impossible donc de prévoir avec certitude l’impact de l’intelligence artificielle sur l’emploi dans les années à venir, qu’il s’agisse de destruction ou de transformation d’emplois.

Des programmes aussi racistes et sexistes que les humains

Les immenses bases de données grâce auxquelles « s’entraînent » certaines technologies d’IA sont souvent biaisées. Quentin Hugon / Le Monde

Un certain nombre des technologies d’IA « apprennent » à partir d’énormes bases de données créées par des humains, dont elles doivent s’inspirer pour émettre des conclusions. Or, ces lots de données sont souvent biaisés. Résultat : plusieurs programmes ont déjà montré qu’ils reproduisaient le racisme ou le sexisme des humains. Ainsi, quand un programme d’IA est devenu jury d’un concours de beauté en 2016, il a éliminé la plupart des candidats noirs. Une autre technologie, censée émettre des liens entre les mots, a reproduit certains stéréotypes, en associant par exemple les femmes au foyer et les hommes aux professions scientifiques…

L’IA apprend donc de nos propres préjugés pour mieux les reproduire. Comment améliorer la situation ? Si les bases de données sont biaisées, c’est aussi, selon Emmanuel Mogenet, directeur de Google Research Europe, parce qu’elles sont souvent incomplètes, et pas assez représentatives des minorités. « Il faut trouver les endroits où on n’a pas récolté assez de données, expliquait-il au Monde en avril. C’est un problème sur lequel on se penche, qui nous préoccupe énormément, car on veut des modèles qui n’ignorent pas les minorités. Ça avance. »

Pirater l’esprit humain — et la démocratie

En exploitant nos données personnelles, des programmes d’intelligence artificielle pourraient permettre d’influencer la façon dont on pense. Quentin Hugon / Le Monde

Eric Horvitz le dit sans détour : il craint « des attaques de l’IA sur l’esprit humain ». Cet éminent spécialiste de l’intelligence artificielle, directeur de Microsoft Research Labs, a listé, au festival SXSW qui s’est tenu en mars à Austin (Texas), les dangers potentiels de l’IA auxquels il faudrait, selon lui, réfléchir dès aujourd’hui. Ce qu’il entend par « attaques » n’a rien à voir avec un délire cyberpunk d’implantation de technologies dans le cerveau. Le danger est bien plus concret — et est, pour lui, déjà là.

Eric Horvitz évoque par exemple des programmes d’IA capables de rédiger un tweet « spécialement conçu » pour une personne. « Sur quoi tweete-t-elle ? Quand est-ce qu’elle répond ? A quels événements a-t-elle participé ? Ces informations peuvent être utilisées pour concevoir un tweet tel qu’il est quasi impossible pour [la personne] de ne pas cliquer. »

Une nouvelle étape pour la publicité ciblée, mais pas seulement. « Des entreprises utilisent ces données pour personnaliser des messages, mais aussi pour influencer la façon dont les gens votent, comme Cambridge Analytica ». Eric Horvitz évoque également le risque des « fake news », de fausses informations montées de toutes pièces, qui pourraient bénéficier de ces technologies : aujourd’hui, des programmes sont par exemple capables de faire dire ce que l’on veut à Barack Obama ou à Vladimir Poutine, en vidéo. Un problème qui n’est pas spécifique à l’intelligence artificielle, mais ces technologies permettent d’automatiser et de simplifier ces moyens d’influence.

Le spectre des armes autonomes

Pour l’instant, les Etats affirment que les robots utilisés dans les armées sont toujours contrôlés à distance par des humains. Quentin Hugon / Le Monde

Etant donné le niveau des technologies d’IA et de robotique, rien ne s’oppose techniquement à la création d’armes létales autonomes. Aujourd’hui, les armées affirment que les machines qu’elles utilisent sont toujours contrôlées à distance par un humain, comme les drones de l’armée américaine, et qu’aucune ne prend jamais la décision de tirer. Mais aucune réglementation internationale n’interdit aujourd’hui l’usage d’armes létales autonomes, qui fait l’objet de discussions à l’ONU.

En 2015, plus d’un millier de personnes, parmi lesquelles de nombreux chercheurs en IA, mais aussi des personnalités comme Elon Musk ou l’astrophysicien Stephen Hawking, avaient signé un appel pour faire interdire ces armes. « L’intelligence artificielle a atteint un point où le déploiement de tels systèmes sera — matériellement, sinon légalement — faisable d’ici à quelques années, et non décennies, et les enjeux sont importants : les armes autonomes ont été décrites comme la troisième révolution dans les techniques de guerre, après la poudre à canon et les armes nucléaires », pouvait-on lire dans cet appel.

Une nouvelle étape dans la surveillance

Les technologies de vision par ordinateur ont considérablement progressé ces dernières années. Le Monde.fr

La vision par ordinateur a connu d’importants progrès ces dernières années grâce aux avancées du deep learning (« apprentissage automatique profond »). Des programmes sont désormais capables de reconnaître les visages, de distinguer un chat d’un chien et de décrire des images. De plus en plus, ces innovations s’appliquent à la vidéo, et notamment à la vidéosurveillance. La SNCF a par exemple annoncé, peu après les attentats de novembre 2015 en région parisienne, qu’elle expérimentait des technologies de détection des comportements suspects à partir des caméras de surveillance, en se basant sur des critères comme « le changement de température corporelle, le haussement de la voix ou le caractère saccadé de gestes, qui peuvent montrer une certaine anxiété ».

Couplé à des technologies de reconnaissance faciale, ce type de système pourrait par exemple permettre de détecter en direct une personne fichée S abandonnant un colis suspect. Mais aussi un militant pour les droits de l’homme dans une dictature ou une personne homosexuelle dans un pays où cela est condamné. Ces systèmes sont encore loin de fonctionner parfaitement, et le risque de « faux positifs » reste important.

Des systèmes opaques

Les millions de calculs effectués par les réseaux de neurones artificiels sont difficiles à décomposer et analyser. QUENTIN HUGON/LE MONDE

Grâce aux technologies d’intelligence artificielle, il est possible de créer des programmes permettant de sélectionner des curriculum vitae, de proposer des diagnostics médicaux ou d’approuver une demande de prêt. Or, une bonne partie des décisions prises par ces programmes… ne sont pas explicables. Concrètement, les ingénieurs ne savent pas retracer la multitude de calculs effectués par la machine pour arriver à sa conclusion.

En clair, cela signifie que si votre demande de prêt est refusée, ou votre CV recalé, aucune explication ne pourra vous être fournie. Un constat gênant, qui explique entre autres qu’aujourd’hui les technologies d’IA ne sont généralement utilisées que pour suggérer des solutions, validées ensuite par des humains.

Expliquer le fonctionnement de ces technologies, basées sur des réseaux de neurones artificiels, est l’un des grands défis des chercheurs en IA, qui travaillent sur la question. « L’explication du comportement est très importante, c’est ce qui détermine l’acceptabilité par la société de ces systèmes », expliquait David Sadek, directeur de la recherche à Mines Telecom, au Sénat, le 19 janvier.

Ces derniers mois, la controverse qui a entouré l’algorithme APB qui arbitre les choix d’orientation des bacheliers — qui n’est pas un programme d’IA, mais dont le code est longtemps resté entièrement secret — a déjà montré que l’opacité des systèmes automatisés posait d’importants problèmes.

D’importantes questions de droit à régler

Si les robots sont amenés à prendre plus de place dans la vie des humains, le droit devra s’adapter. Quentin Hugon / Le Monde

« Si les robots se développent, qui va être responsable ? Va se poser la question de la réparation en cas de dommages », soulignait Jean-Yves Le Déaut, alors député, lors d’une audition au Sénat le 19 janvier. La question préoccupe, même si la loi ne semble pas être sur le point de changer, ni en France ni ailleurs. « Les systèmes automatisés vont de plus en plus être amenés à prendre des décisions sur des situations que n’auront pas pu prédire les ingénieurs », expliquait Derek Jink, professeur de droit à la faculté de droit de l’université du Texas, lors du festival SXSW en mars.

« Qui, par exemple, sera responsable des actes des voitures autonomes ? » La question revient souvent, et hante déjà les assureurs : si une voiture autonome tue quelqu’un dans un accident, la responsabilité ira-t-elle au constructeur, à l’ingénieur qui a développé l’IA, au propriétaire de la voiture ou à la personne à la place du conducteur ? Des questions pressantes, alors que des voitures autonomes expérimentales ont déjà parcouru, aux Etats-Unis, des millions de kilomètres sur de vraies routes.

Mais pour Terminator, vous pouvez repasser

Une scène du film américain d'Alan Taylor, « Terminator : Genisys », sorti en 2015. PARAMOUNT PICTURES/MELINDA SUE GORDON

« La singularité, ça m’énerve. » En avril, Jean Ponce, chercheur en vision artificielle à l’Ecole normale supérieure (ENS), critiquait les tenants de ce concept qui désigne le moment hypothétique où l’intelligence artificielle dépassera l’intelligence de l’homme. « Je ne vois personnellement aucun indice que la machine intelligente soit plus proche de nous aujourd’hui qu’avant », expliquait-il lors d’une conférence organisée par Google à Paris.

Dans l’imaginaire collectif, l’intelligence artificielle évoque inlassablement les images des films Terminator, dans lesquelles les machines intelligentes ont déclaré la guerre à l’homme. Or, dans la réalité, la grande majorité des chercheurs en IA affirme ne pas avoir la moindre idée de la façon dont pourrait être créée une machine aussi intelligente que l’homme, capable de dialoguer naturellement, de disposer de sens commun, d’humour, capable de comprendre son environnement… Et encore moins sous la forme d’un robot humanoïde.

L’idée d’une IA qui échappe au contrôle de son créateur provoque aussi des sourires en coin dans la communauté, qui peine à comprendre pourquoi certains craignent qu’un programme conçu pour jouer au jeu de go puisse soudainement vouloir s’attaquer à la race humaine.

« C’est incroyable de constater l’intérêt que cela suscite chez les gens, s’étonnait Eric Horvitz, directeur de Microsoft Research Labs, lors du festival SXSW. Les journalistes ont tendance à diffuser un point de vue extrême, alors que la réalité est beaucoup plus nuancée que cela. » Pour lui, cela « reste des questions très intéressantes, (…) sur lesquelles il faut garder un œil, et il ne faut pas se moquer en disant que les gens sont fous ». Mais, souligne-t-il, « ce sont des questions de très long terme, et nous devons réfléchir aux questions qui nous concernent directement, maintenant ».