Prenez note que cet article publié en 2018 pourrait contenir des informations qui ne sont plus à jour.

Sous la pression de milliers d'employés, Google s'est engagé jeudi à ce que ses travaux en matière d'intelligence artificielle ne servent pas à fabriquer des armes, sans pour autant renoncer à collaborer avec des gouvernements ou des militaires.

« Nous avons conscience qu'une technologie aussi puissante soulève aussi d'importantes questions à propos de son usage », a écrit le numéro un Sundar Pichai, en énumérant sur un blogue du géant américain une série de principes éthiques concernant les usages de l'intelligence artificielle.

Google fait face depuis plusieurs semaines à une fronde de nombreux employés, furieux de le voir travailler avec le Pentagone pour aider les drones à mieux distinguer les objets des humains grâce à l'intelligence artificielle, un projet baptisé « Maven ».

Plus de 4000 d'entre eux ont signé une pétition demandant à Sundar Pichai de rester en dehors du « commerce de la guerre » et de renoncer au contrat, évalué par la presse à environ neuf millions de dollars. Ils lui demandaient aussi « une politique claire disant que Google ou ses sous-traitants ne construiront jamais de technologie de guerre », contraire selon eux aux valeurs fondatrices de l'entreprise née il y a 20 ans.

Devant ce tollé, le groupe avait annoncé en interne la semaine dernière qu'il ne renouvellerait pas ce contrat en 2019.

Pour les organisations Electronic Frontier Foundation (EFF) ou le Comité international pour le contrôle des armes-robots (ICRAC), qui ont soutenu les pétitionnaires, l'apport de l'intelligence artificielle ouvre la voie à terme à la suppression de toute intervention humaine dans les missions de drones. Cela poserait, selon elles, un problème éthique majeur.

L'armée américaine, comme beaucoup d'autres pays, utilise des drones commandés à distance par des humains pour des missions de reconnaissance, de renseignement ou pour procéder à des bombardements, en Afghanistan par exemple.

Des voix, comme celle du patron de Tesla et de SpaceX, Elon Musk, mettent en garde régulièrement contre les usages abusifs de l'intelligence artificielle, craignant, comme l'ONU, l'avènement d'armes autonomes, ou de « robots-tueurs ».

Dans un tweet, l'EFF a salué la décision de Google et a évoqué « une grande victoire pour les principes d'une IA éthique ».

Agrandir l’image ﻿ (Nouvelle fenêtre) ﻿ ﻿ Un exemple d'application concrète de l'intelligence artificielle est le Project Maven, qui permet au Département de la défense américain d'utiliser les systèmes d'intelligence artificielle de Google pour analyser les images captées par les drones militaires. Photo : getty images/istockphoto / koto_feja

Des salariés satisfaits

François Chollet, ingénieur informatique dans l'intelligence artificielle au sein du géant américain, a dit : « Merci @sundarpichai. Très heureux de voir ça », tandis que son collègue Laurence Moroney, qui travaille lui aussi dans l'AI, a tweeté : « Ça me rend très heureux d'être un "Googler" », le surnom des employés du groupe.

Ryan Calo, professeur de droit à l'Université de Washington et spécialiste d'Internet, a salué « un bon début » de la part de Google.

Même si, a-t-il ironisé sur Twitter, ces principes « tiennent davantage du [philosophe britannique Jeremy] Bentham et des positivistes que du [philosophe allemand Emmanuel Kant] » connu pour ses écrits sur la morale.

Google, comme d'autres entreprises technologiques, fait partie de groupements comme « Partnership on Artificial Intelligence » qui promettent des usages éthiques de l'IA, mais les principes énoncés jeudi sont plus précis.

M. Pichai promet que les travaux seront uniquement conçus pour des usages « positifs pour la société » et tiendront compte des principes de respect de la vie privée.

Il exclut donc des utilisations de l'IA pour développer des « armes » ou « autres technologies dont le but principal est de causer ou de faciliter directement des blessures ».

Le groupe rejette aussi plus globalement toute technologie « qui entraîne ou est susceptible de causer du mal », mais avec cette nuance : s'il y a un risque de « faire du mal, nous poursuivrons seulement [nos travaux] lorsque nous pensons que les bénéfices sont très supérieurs aux risques et apporterons les garde-fous appropriés ».

Il exclut aussi de collaborer à des systèmes de « surveillance », mais seulement lorsqu'ils enfreignent « les normes acceptées de façon internationale ».

M. Pichai prend aussi soin de préciser que « si nous refusons de développer l'intelligence artificielle pour des armes, nous continuerons nos travaux avec des gouvernements et l'armée dans beaucoup d'autres domaines », comme la cybersécurité, la formation, le recrutement militaire ou les missions de sauvetage.

Le groupe marche sur des oeufs, car il est, comme Microsoft ou Amazon notamment, sur les rangs pour un énorme contrat de plusieurs milliards de dollars avec le gouvernement américain, dont le Pentagone, qui souhaite recourir à l'infonuagique.

Google emploie 85 000 personnes dans le monde.