Publié le 17 janv. 2019 à 8:13

Ce n'est pas tous les jours qu'une réunion des membres du G7 se tient dans une ancienne usine textile reconvertie en pépinière de start-up et laboratoires high-tech. C'est là, début décembre, dans les locaux d'Element AI, au coeur d'un ancien quartier industriel de Montréal en pleine reconversion, que Justin Trudeau a prononcé un discours mêlant fascination et inquiétude. « Nous devons reconnaître qu'avec l'intelligence artificielle, nous entrons dans des territoires inconnus. Aussi excitant que cela paraisse, cela s'accompagne de nombreux défis, et c'est pour cela qu'il faut s'attaquer aux questions éthiques que soulèvent ces technologies », mettait en garde le Premier ministre canadien.

L'idée avait été lancée par Emmanuel Macron lors de la présentation du rapport de Cédric Villani , en mars 2018. Mais c'est à Justin Trudeau qu'est revenu l'honneur d'annoncer officiellement la création, dès cette année, d'un groupe d'experts internationaux chargés d'étudier les impacts de l'intelligence artificielle. Une présentation faite en marge du NeurIPS, le plus grand rendez-vous scientifique de la discipline , qui a réuni cette année 8.500 chercheurs dans la première ville francophone d'Amérique du Nord.

Justin Trudeau : « Nous devons reconnaître qu'avec l'IA, nous entrons dans des territoires inconnus. Aussi excitant que cela paraisse, cela s'accompagne de nombreux défis, et c'est pour cela qu'il faut s'attaquer aux questions éthiques que soulèvent ces technologies »DR

Il y avait déjà le GIEC pour le changement climatique , il y aura donc bientôt le G2IA (ou IPAI en anglais) pour étudier les bouleversements liés à l'intelligence artificielle. Cette nouvelle institution, dont les contours devraient être précisés d'ici à l'été, rassemblera des représentants de la communauté scientifique, de l'industrie, des gouvernements et de la société civile.

De la science-fiction au monde réel

Maintenant qu'elles peuvent battre les humains au jeu de go ou les radiologues pour détecter des tumeurs, les machines risquent-elles de nous dépasser dans tous les autres domaines ? Les algorithmes, désormais capables d'apprendre, vont-ils mettre au chômage des bataillons de cadres, de chauffeurs routiers ou de codeurs ? Faut-il laisser des outils aussi potentiellement dangereux que des voitures, des avions ou des armes sous le seul contrôle de logiciels et de processeurs ?

Les technologies arrivent à un niveau de maturité qui fait qu'elles vont être déployées dans le monde réel, donc il devient de plus en plus important d'intégrer l'éthique dans les projets de recherche

Toutes ces questions, qui ont longtemps relevé de la science-fiction, sont désormais discutées le plus sérieusement du monde par un nombre croissant de chercheurs en intelligence artificielle, d'économistes, de philosophes ou de gouvernants. Ces dernières années, les rapports, livres blancs, groupes d'études et autres initiatives sur l'intelligence artificielle et l'éthique se sont multipliés, portés par les progrès spectaculaires des technologies d'apprentissage automatique profond (« deep learning »).

« Ces questions se sont déplacées des coulisses vers le centre de la scène », résume Joëlle Pineau, professeur à l'université McGill et directrice du laboratoire d'IA de Facebook (FAIR) à Montréal, qui donnait une conférence sur la robustesse des algorithmes dans le cadre de la conférence NeurIPS. « Les technologies arrivent à un niveau de maturité qui fait qu'elles vont être déployées dans le monde réel, donc il devient de plus en plus important d'intégrer l'éthique dans les projets de recherche. »

« Comprendre où se trouvent les dangers »

L'une des premières alertes, bruyamment relayée par Elon Musk ou Stephen Hawking, est venue en 2014 d'un philosophe et chercheur de l'université d'Oxford, Nick Bostrom. Dans un essai intitulé « Superintelligence : paths, dangers and strategy », il imaginait les conséquences - potentiellement dévastatrices - d'une intelligence artificielle devenue supérieure à celle des humains.

Ce scénario catastrophe est en réalité très loin d'être partagé par les experts de l'IA, en dehors de quelques fervents transhumanistes comme le futurologue américain Ray Kurzweil. En juin 2017, dans un entretien aux « Echos », Nick Bostrom se disait lui-même « plutôt optimiste sur les bénéfices à attendre de l'intelligence artificielle ». Son livre a cependant contribué à lancer un débat mondial sur les enjeux éthiques de l'IA. Il a inspiré une lettre ouverte appelant les développeurs à tout faire pour que les futurs systèmes d'intelligence artificielle soient « à la fois robustes et bénéfiques pour l'humanité ». Publiée en janvier 2015, elle a été signée par plus de 8.000 experts et personnalités, dont les « pères fondateurs » du deep learning, Geoffrey Hinton, Yann LeCun et Yoshua Bengio.

Les robots tueurs

Six mois plus tard, des centaines de chercheurs reprenaient la plume, cette fois pour demander l'interdiction des « robots tueurs » , ces armes autonomes capables de faire feu sans intervention humaine. Les discussions sur l'avenir de ces armes, menées par l'ONU à Genève depuis plusieurs années , n'ont guère progressé depuis, mais le mouvement contre une utilisation militaire de l'IA a eu des répercussions jusque dans la Silicon Valley.

Au printemps dernier, des salariés de Google ont en effet obtenu que leur employeur ne renouvelle pas le projet Maven, conclu avec le Pentagone . Dans la foulée, Sundar Pichai, le PDG du groupe, a publié un texte intitulé : « IA chez Google : nos principes » , où figure noir sur blanc l'interdiction de développer « des armes ou des objets dont le but est de blesser des humains ».

Les emplois menacés

Mais les questions éthiques et sociales posées par l'intelligence artificielle vont bien au-delà d'un scénario à la Terminator. Il y a d'abord, sur le plan macro-économique, toutes les questions liées à l'avenir du travail. Là encore, l'alerte a été donnée par des chercheurs d'Oxford, Carl Benedikt Frey et Michael A. Osborne , qui estimaient dans un article publié en 2013 que « 47 % des emplois américains étaient en danger » à cause de l'automatisation et des progrès de l'IA.

Depuis, des rapports venus de l'OCDE, du Forum économique mondial ou du FMI sont venus relativiser ces chiffres, en appelant à prendre en compte également les emplois créés ou modifiés par ces technologies. Reste qu'aujourd'hui, la majorité des experts s'accordent sur l'idée que l'intelligence artificielle va au minimum déplacer des emplois, et que la quasi-totalité des systèmes éducatifs actuels ne sont pas adaptés aux besoins de remise à niveau qui se profilent. D'où les réelles craintes de déclassement exprimées par les classes moyennes occidentales.

Mounir Mahjoubi : « Voyez ce qui se passe en France avec les 'gilets jaunes'. C'est pour cela qu'il faudra étudier les impacts de l'IA sur la société, les mesurer et donner des clefs de compréhension aux gens. Car si on ne le fait pas, on va créer des résistances légitimes »DR

Lors de la réunion G7 de Montréal, où il représentait la France, le secrétaire d'Etat au Numérique, Mounir Mahjoubi , n'a d'ailleurs pas hésité à faire le parallèle entre cette peur de l'avenir et le mouvement des « gilets jaunes » : « Vous voyez ce qui se passe en France, a-t-il déclaré à la tribune. C'est pour cela qu'il faudra étudier les impacts de l'intelligence artificielle sur la société, les mesurer et donner des clefs de compréhension aux gens. Car si on ne le fait pas, on va créer des résistances légitimes. »

Des systèmes opaques

L'arrivée d'outils d'intelligence artificielle dans notre quotidien a aussi fait émerger des inquiétudes plus techniques. Par exemple, sur la responsabilité en cas d'accident causé par un véhicule autonome , et sur la façon dont on devra le programmer - le système doit-il, pour ne citer qu'un exemple, protéger dans tous les cas le propriétaire et les passagers de la voiture au détriment des autres ?

Un autre enjeu, moins spectaculaire mais néanmoins majeur, concerne les données, et en particulier les biais qu'elles reflètent, et que la machine peut reproduire sans discernement : si l'on entraîne un moteur de recherche à reconnaître des cadres d'entreprise à partir de photos d'hommes blancs, il ne montrera jamais de femmes ou de personnes de couleur quand on lui posera la question par la suite.

Autre problème régulièrement pointé du doigt : l'opacité des systèmes utilisés, et la difficulté à expliquer leur fonctionnement. Le passage d'une informatique où les logiciels devaient suivre des règles écrites à des algorithmes que l'on entraîne à partir de données massives fait qu'il peut être impossible d'expliquer, de comprendre comment ils aboutissent à des réponses. Ce qui peut freiner l'adoption de ces outils dans certains secteurs critiques, comme l'aéronautique.

Un algorithme n'a ni sens commun ni valeur morale

Et même quand les données sont bonnes, et que les algorithmes font ce qu'on leur demande, encore faut-il qu'ils n'aillent pas trop loin. Sylvain Duranton, directeur monde de BCG Gamma, cite l'exemple des systèmes servant à la fixation des prix dans la distribution : « Pour optimiser la marge, ils pourraient décider d'augmenter les prix dans des zones défavorisées et de les baisser dans les zones favorisées, mieux informées. » D'où l'importance d'anticiper et d'être prêt à parer aux problèmes qui apparaîtront, car « un algorithme n'a ni sens commun, ni valeur morale. »

Grands principes, peu de pistes

Bien avant l'annonce de la création du GIEC de l'IA, les géants du secteur avaient commencé à réfléchir à ces questions : en septembre 2016, poussés par certains de leurs chercheurs, Google, Amazon, Facebook, IBM et Microsoft ont annoncé la création et le financement d'une organisation à but non lucratif , Partnership on AI (PAI), pour « formuler les meilleures pratiques » et « chercher à garantir que les technologies d'IA bénéficient au plus grand nombre ». Deux ans plus tard, ce partenariat compte près de 80 membres, dont un géant chinois de l'Internet, Baidu. Mais à ce jour, il n'a encore produit aucune règle ou liste de recommandations. « Les premières publications devraient intervenir en 2019, ou au plus tard en 2020 », assurait début décembre aux « Echos » la directrice exécutive de PAI, Terah Lyons.

D'autres initiatives ont, elles, progressé, à l'image de la « Déclaration de Montréal pour un développement responsable de l'IA » , présentée en décembre dernier, en marge de NeurIPS. Lancé par l'université de Montréal avec le soutien de son chercheur le plus célèbre, Yoshua Bengio , ce document d'une vingtaine de pages, fruit d'une année de débats publics, pose dix grands principes éthiques : respect de l'autonomie des utilisateurs, protection de l'intimité et de la vie privée, prudence dans le développement de nouveaux outils, responsabilité laissée aux humains dans la prise de décision, etc.

L'idée n'est pas de créer un cadre contraignant, mais d'aboutir à un développement durable de l'IA

Quasiment au même moment, la Commission européenne livrait elle aussi un texte très attendu : la première version des règles éthiques mises au point par un groupe de 52 experts , réunis depuis le printemps dernier. « L'idée n'est pas de créer un cadre contraignant, mais d'aboutir à un développement durable de l'IA », explique Nozha Boujemaa, vice-présidente du groupe d'experts.

Le défi de l'élargissement du G2IA

Ce texte, qui met en avant la notion de confiance, se distingue en esquissant des pistes techniques pour répondre aux différents problèmes. Car, pour rassurer les citoyens et convaincre les entreprises, il faudra d'abord améliorer les technologies. Comme le résume l'un des plus grands chercheurs de la discipline, Demis Hassabis , le patron du britannique DeepMind, à l'origine du logiciel AlphaGo : « il y a beaucoup de travail philosophique sur l'éthique, mais nous avons encore besoin de travail technique en parallèle. »

Le G2IA, voulu par la France et le Canada, va très vite devoir relever un premier défi de taille : pour devenir une autorité mondiale aussi importante que le GIEC, il devra attirer des chercheurs et des institutions bien au-delà de ses deux pays fondateursDR

Si l'Europe et le Canada se mobilisent sur l'éthique, c'est aussi parce qu'ils y voient une chance de se distinguer dans un secteur où les Etats-Unis et la Chine ont une très grande longueur d'avance. En effet, les Américains ne sont pas insensibles aux questions éthiques (dans un récent sondage, 82 % estimaient que l'IA devait être manipulée avec précaution) mais misent avant tout sur l'autorégulation des entreprises ; les Chinois, eux, considèrent l'IA avant tout comme un moyen d'augmenter leur puissance.

D'où la mise en avant d'une « troisième voie ». Reste que le G2IA, voulu par la France et le Canada, va très vite devoir relever un premier défi de taille : pour devenir une autorité mondiale aussi importante que le GIEC, il lui faudra attirer des chercheurs et des institutions bien au-delà de ses deux pays fondateurs...