Montréal a réussi à s’imposer comme un centre névralgique du développement de l’intelligence artificielle (IA). Les investissements publics et privés pleuvent sur la métropole. Les approches fondées sur l’orientation générale voulant que l’IA doive autant que possible imiter le fonctionnement de l’esprit humain et arriver à apprendre de façon autonome ont permis des progrès spectaculaires, notamment en ce qui a trait au traitement des langues naturelles, aux véhicules autonomes ou à l’exécution de tâches qui semblent exiger une faculté d’intuition, comme jouer au jeu de go.

Mais des agents artificiels véritablement intelligents, capables d’apprendre par eux-mêmes et de se transformer à la lumière de leur compréhension du monde extérieur, ne poseront-ils pas des risques pour les êtres humains, trop humains, que nous sommes ? Des figures connues comme Stephen Hawking et Elon Musk en sont convaincus. Ils s’appuient en outre sur les travaux de chercheurs du Future of Life Institute de l’Université d’Oxford comme Nick Bostrom et Max Tegmark. Ces derniers affirment que les progrès rapides en IA, conjugués à l’augmentation constante de la puissance computationnelle des ordinateurs, pourraient mener à l’émergence de « super-intelligences » artificielles qui poseront un « risque existentiel » pour l’espèce humaine.

À ce stade de ma réflexion, rien ne me permet de penser que ces craintes flirtant avec le catastrophisme doivent orienter nos actions relatives à l’IA. Les pronostics des chercheurs de pointe en IA, dont Yoshua Bengio et Joëlle Pineau, sont nettement plus modérés. Ils nous rappellent que les dernières avancées ne permettent pas d’affirmer que nous nous dirigeons vers le développement d’une intelligence artificielle générale plutôt que vers la multiplication d’intelligences artificielles incroyablement efficaces dans l’exécution de tâches spécifiques, comme reconnaître un visage ou jouer au jeu de go.

Et je ne parle pas de la question de savoir si des IA pourraient ressentir des émotions et acquérir une conscience de soi analogue à celle des êtres humains. Ces perspectives relèvent, jusqu’à preuve du contraire, de la science-fiction. On peut appeler des algorithmes interconnectés des « réseaux de neurones artificiels » si l’on veut, mais nous avons affaire à des machines capables de traiter des informations en grande quantité et de monter ensuite en généralité.

Des risques éthiques

Un des effets pervers des visions sensationnalistes de l’IA — pensons à l’attribution de la citoyenneté saoudienne à un robot — est que celles-ci peuvent nous faire perdre de vue les authentiques enjeux éthiques soulevés par les récents développements. L’IA modifiera nos modes de vie, y compris le monde du travail. Toute réflexion éthique sur l’IA doit reconnaître que les bénéfices seront vraisemblablement majeurs. Les accidents de la route seront beaucoup moins nombreux lorsque des véhicules autonomes rouleront sur nos routes. Des tumeurs cancéreuses seront diagnostiquées plus rapidement. L’IA pourrait contribuer à rendre le système de justice plus accessible.

Cela dit, les risques éthiques inhérents à l’IA sont aussi majeurs. Étant donné l’opacité des algorithmes et la quantité d’information qu’ils traitent, qui sera responsable des mauvaises décisions prises par des systèmes d’IA et des inévitables défaillances ? Comment se prémunir contre les cyberattaques visant des infrastructures névralgiques qui miseront sur l’IA, comme le réseau électrique ou les hôpitaux ? Comment appliquer le principe de diligence raisonnable, en vertu duquel les producteurs de technologies doivent prendre des mesures d’atténuation des risques inhérents à l’utilisation de leurs produits, lorsque l’on sait qu’il peut être impossible pour le concepteur de retrouver le chemin pris par un algorithme pour arriver à une décision ?

Les progrès en IA reposent lourdement sur l’accès à des données, y compris nos données personnelles. Sachant que la multiplication des recoupements de données pourtant anonymisées peut permettre l’identification des personnes et que le principe de consentement est vidé de son sens lorsqu’il est question des technologies de l’information, comment assurer la protection de la vie privée ?

Et comment neutraliser les biais discriminatoires dans les données traitées par l’algorithme ou dans la vision du monde de l’ingénieur qui supervise la machine ?

Naissance de nouveaux métiers

Enfin, certains pensent que l’IA engendrera une « quatrième révolution industrielle ». Des tâches présentement accomplies par des humains le seront à l’avenir par des machines, et le travail d’un grand nombre de travailleurs sera transformé par l’IA. De nouveaux métiers naîtront.

Cette transformation fera des gagnants et des perdants. Elle exige dès maintenant une réflexion sur nos politiques sociales, fiscales et éducatives. Doit-on « taxer les robots » ? Le recours à l’IA parviendra-t-il à convaincre les législateurs d’instaurer une allocation universelle qui remplacerait les mesures actuelles de soutien du revenu ? C’est sur ces questions que planche, dans un premier temps, la Commission de l’éthique en science et en technologie. Il serait déplorable que l’IA ait pour effet d’accroître les inégalités socioéconomiques existantes.

Heureusement, les acteurs de l’IA sont, de façon générale, sensibles à ces questionnements. Une volonté s’affirme même pour que Montréal soit à l’avant-garde de la réflexion éthique sur l’IA. Un forum sur l’« intelligence artificielle responsable » aura lieu cette semaine à Montréal. Il est crucial qu’un dialogue entre les chercheurs de différentes disciplines, les industriels, les décideurs et la société civile s’amorce dès maintenant pour que l’on recherche collectivement les moyens d’assurer une atténuation des risques et une distribution juste des avantages de l’IA.

Des centaines de chercheurs sont attendus les 2 et 3 novembre au Palais des congrès de Montréal pour le Forum IA responsable, événement organisé par les Fonds de recherche du Québec et l’Université de Montréal.