Parmi les grands préceptes gravés dans le marbre, la firme de Mountain View promet de ne pas utiliser l'intelligence artificielle pour fabriquer des armes. Cette décision intervient après une révolte des employés de Google liée au développement d'une IA pour le Pentagone.

Google a entendu ses employés. Après avoir eu connaissance d'un contrat signé par leur compagnie avec le ministère de la Défense américain en mars, plus de 4.000 salariés avaient signé une pétition. Une douzaine d'entre eux avait même claqué la porte. Le projet Maven avait pour objectif de développer une intelligence artificielle d'analyse d'images de drones militaires. Le contrat, qui sera honoré, ne devrait en revanche pas être reconduit après 2019.

Prise de conscience ou volonté de redorer son blason, Sundar Pichaï, le PDG de Google, a publié ce jeudi une charte éthique concernant l'intelligence artificielle: 7 principes généraux que le géant de Mountain View s'est fixés comme ligne de conduite. «La manière dont l'IA est développée et utilisée va avoir un impact significatif sur la société pour années à venir. Nous ressentons une profonde responsabilité de bien faire les choses», a déclaré le dirigeant sur Twitter.

• Être bénéfique à la société

«Lorsque nous examinerons les possibilités de développement et d'utilisation des technologies de l'IA, nous tiendrons compte d'un large éventail de facteurs sociaux et économiques, et procéderons lorsque nous estimons que les avantages globaux probables dépassent largement les risques et les inconvénients prévisibles», explique la charte.

• Éviter de créer ou de renforcer un parti pris injuste

L'intelligence artificielle reproduit bien souvent des biais qu'elle observe dans les algorithmes d'apprentissage qu'on lui indique. Des partis pris racistes ou sexistes ont déjà été observés. En 2015, une IA de reconnaissance d'images de Google Photos a, par exemple, indiqué reconnaître deux gorilles sur une photo de deux personnes noires. La firme avait alors présenté ses excuses. Dans sa charte, elle indique redoubler d'efforts pour limiter les biais «liés à des caractéristiques sensibles telles que la race, l'origine ethnique, le sexe, la nationalité, le revenu, l'orientation sexuelle, les capacités et les convictions politiques ou religieuses».

• Être conçue et testée pour la sécurité

Google veut «éviter des résultats imprévus qui pourraient créer des risques». «Dans les cas appropriés, nous testerons les technologies AI dans des environnements contraints et surveillerons leur fonctionnement après déploiement», annonce l'entreprise. «Ces erreurs [...] peuvent avoir des conséquences graves dans la vraie vie, quand des algorithmes sont utilisés pour prendre des décisions médicales, obtenir un prêt ou décider si une personne peut bénéficier d'une liberté conditionnelle», confiait la chercheuse américaine Janelle Shane au Figaro , «Pour moi, c'est un danger bien plus terrible et immédiat qu'un scénario à la Terminator».

• Faire face à ses obligations

L'opacité des programmes d'intelligence artificielle rend leurs décisions parfois impossibles à expliquer par leurs propres concepteurs. Google travaille donc à la transparence de ses algorithmes, «nos technologies d'IA feront l'objet d'une direction et d'un contrôle humains appropriés».

• Respecter la vie privée

Avec le scandale Facebook - Cambridge Analytica et la mise en application récente du RGPD, le respect de la vie privée et la protection des données personnelles sont devenues une variable essentielle pour les entreprises du numérique. Sundar Pichaï évoque dans sa charte des grands principes de la législation européenne: le consentement, le contrôle sur l'utilisation des données et la transparence.

À lire aussi : Google, du rêve au cauchemar?

• Maintenir un niveau élevé d'excellence scientifique

Google indique vouloir conserver son niveau d'excellence dans l'intelligence artificielle pour «débloquer de nouveaux domaines de recherche scientifique et de connaissance dans des domaines critiques comme la biologie, la chimie, la médecine et les sciences de l'environnement». L'entreprise va également partager ses connaissances «qui permettront à plus de personnes de développer des IA utiles».

• Être mise à disposition pour des utilisations conformes à ces principes

Le patron de Google insiste sur la mise en place de contrôles internes pour respecter ces principes autour. En phase de développement, quatre grands critères seront passés à la loupe: l'objectif principal et l'usage de l'IA, sa nature et son unicité, son échelle (l'ampleur de la technologie) et le degré d'implication de Google (sous-traitance ou développement propre à l'entreprise).

«Sur la plupart des points, ce sont des principes bien pensés, et avec quelques mises en garde, nous recommandons que d'autres grandes entreprises définissent des lignes directrices et des objectifs similaires», confie Peter Eckerlsley, responsable informatique de l'Electronic Frontier Foundation, interrogé par le site Gizmodo. «En fin de compte, la façon dont l'entreprise applique ces principes a plus d'importance que la déclaration elle-même», nuance Peter Asaro, professeur à la New School qui a participé à la rédaction d'une lettre ouverte contre le projet Maven, «En l'absence d'actions positives, telles que le soutien public à une interdiction internationale des armes autonomes, Google devra offrir plus de transparence quant aux systèmes qu'il conçoit. Sinon, nous continuerons à compter sur les employés consciencieux prêts à risquer leur poste chez Google pour s'assurer que l'entreprise «ne soit pas malveillante» [référence à l'ancien slogan interne de l'entreprise, ndlr]».

Google s'engage mais ne se ferme pas toutes les portes

Ces dernières années, la firme a acquis une position de leader en termes d'intelligence artificielle. Elle a racheté DeepMind, une entreprise britannique spécialisée, en 2014. Cette dernière s'est illustrée en élaborant notamment un programme capable de battre les champions mondiaux du jeu de go. En 2016, face au développement de ces technologies, des géants du secteur (Facebook, Microsoft, IBM, Amazon et Google entre autres) ont signé un «partenariat pour l'intelligence artificielle au bénéfice des citoyens et de la société». Google a, par ailleurs, annoncé en 2017 la création d'un comité d'éthique pour éviter des dérives.

Le géant de Mountain View se refuse désormais à développer des intelligences artificielles susceptibles de causer un dommage global, d'aider à tuer ou à blesser, de faciliter la surveillance «en violation des normes internationales» ou qui contreviennent aux droits de l'homme. «Nous voulons être clairs sur le fait que nous ne développons pas l'IA pour les armes, mais nous continuerons notre travail avec les gouvernements et les militaires dans de nombreux autres domaines», rappelle le géant américain qui va honorer le contrat signé avec le Pentagone jusqu'en 2019. Il serait même candidat pour devenir l'hébergeur cloud du ministère de la Défense américain, un contrat à 10 milliards de dollars.





Big Bang Santé, Maison de la Chimie à Paris, le 18 octobre 2018, de 9h à 17h30

» Découvrez la 3ème édition 2018