Méga-PixelsPar la voix de scientifiques, de philosophes ou de grands noms de la Silicon Valley, la question de la place de l’éthique dans le développement de l’IA s’invite de plus en plus dans le débat public.

« Nous ne concevrons ni ne déploierons d’intelligence artificielle [IA] dans des technologies qui sont globalement nocives, ou qui présentent des risques de l’être. » Ce serment éthique est tiré des « principes » publiés en juin par Google sur l’intelligence artificielle. L’IA, ce vaste ensemble de techniques visant à faire accomplir par des logiciels des tâches pour lesquelles l’homme utilise son intelligence : trier des informations, conduire une voiture, émettre une recommandation…

Cette profession de foi inhabituelle a été élaborée en réponse à une fronde interne à Google : des employés demandaient l’arrêt de la participation au projet militaire Maven, dans le cadre duquel l’entreprise aidait l’armée américaine à analyser des images de drone.

Cet épisode est la dernière des sorties médiatiques qui ont poussé le thème de l’éthique sur l’avant-scène de l’intelligence artificielle. Des figures comme Elon Musk, le patron du constructeur automobile Tesla, ou Stephen Hawking, l’astrophysicien britannique mort en mars, ont utilisé leur aura pour alerter sur la menace de voir l’IA supplanter les humains, ou pour réclamer, dans une lettre ouverte, l’interdiction des « armes autonomes », surnommées « robots tueurs ».

Un opposant aux « robots tueurs » à Berlin, en Allemagne, le 24 août. J'rg Carstensen / J'rg Carstensen/picture-alliance/dpa/AP Images

Depuis, d’autres affaires ont illustré les injustices que l’intelligence artificielle pouvait induire, par exemple en propageant des « biais ». Aux Etats-Unis, un logiciel utilisé pour prévoir le risque de récidive chez les prévenus a été accusé par le site d’investigation ProPublica de discriminer les Noirs, pénalisés par des scores en moyenne plus élevés. « Il y a une prise de conscience. Dans le secteur de l’IA, les questions d’éthique sont devenues brûlantes, résume Jean-Gabriel Ganascia, le président du comité d’éthique du CNRS. On est en train de se rendre compte que si on veut que les technologies d’intelligence artificielle s’imposent, elles doivent être acceptées. »

Au-delà des déclarations d’intention, comment mettre en œuvre des principes éthiques ? Dans les grandes entreprises, on assure que leur mise en place a commencé : « Nous ne faisons pas qu’énoncer des principes », assure Jeff Dean, responsable de l’IA chez Google. L’entreprise participe par exemple aux recherches sur l’éthique, encore balbutiantes. Microsoft, de son côté, a créé sept comités, notamment sur « les utilisations sensibles de l’IA », ainsi que sur « les biais et l’équité ». « C’est un début, indique le responsable maison, Eric Horvitz. On étudie des cas concrets. »

Il vous reste 78.21% de cet article à lire. La suite est réservée aux abonnés.