Il faut qu'il y ait toujours un humain dans la boucle, afin d'assumer les conséquences d'une erreur éventuelle. Pour des raisons morale et juridiques.

- Hier, je vous ai parlé de la polémique qui a récemment opposé, aux Etats-Unis, un ancien Secrétaire d’Etat au Trésor, Larry Summers, au détenteur actuel de cette fonction, Steve Mnuchin. Le premier croit à l’Intelligence artificielle. Le second estime que cela prendra des dizaines d’années avant d’impacter concrètement nos vies. Quels problèmes cela soulève-t-il ?

Un professeur de droit de l'Internet à Harvard, Jonathan Zittrain, les regroupe autour de trois grandes séries de questions.

Principalement : comment rendre légalement et éthiquement responsables ceux qui possèdent de tels instruments des conséquences de choix effectués de manière automatique ? En effet, l’Intelligence artificielle, au niveau le plus basique, ce sont des machines prédictives. Elles sont devenues possibles parce que nous disposons de toujours plus de données et parce que les algorithmes capables de les interpréter sont de plus en plus sophistiqués. Elles peuvent donc prédire, comme dans les romans et les films de science-fiction, le degré de probabilité de comportements individuels ou collectifs. Et prendre, en conséquence, des décisions susceptibles de favoriser ou de prévenir ces comportements.

Le cas d’école, c’est la prévention du terrorisme sur les réseaux sociaux, que vient de relancer Theresa May. Les réactions à l’actualité postées sur Facebook ou Twitter permettent de suivre et de mesurer le degré de radicalisation de certains individus et d’estimer leur dangerosité. Les responsables des réseaux sociaux doivent-ils ou non prévenir les autorités compétentes en présence de tels cas ?

Secundo, puisque l’Intelligence artificielle permet une meilleure prédictibilité des conséquences éventuelles des décisions prises jusqu’à présent par des personnes, convient-il ou non de transférer à des machines certaines de ces décisions ? Les décisions humaines sont entachées de préjugés, de biais idéologiques. S’en décharger sur ces instruments permettrait-il de supprimer les injustices et les erreurs humaines ? Exemple : les juges des libertés ou d’application des peines, chargés notamment d’évaluer les risques de récidive, peuvent se tromper. En théorie, une machine, dépourvue d’affects et libre de tout partis-pris, est moins susceptible d’erreur. Mais que devient la dignité humaine, face à des décisions individuelles prises par des machines ?

Tertio, les comportements humains sont dictés par des convictions morales. Ainsi, le conducteur d’une voiture ou d’un camion, lorsqu’il est placé devant un dilemme réagit en fonction de son éthique. Faut-il risquer un accident pour sauver la vie d’un chien ? Sacrifier la sienne et celle de sa famille pour épargner les enfants d’un car scolaire, etc. ? On connaît bien ces questions et les différentes manières d’y répondre. A présent que roulent des voitures sans conducteur, à partir de quelles convictions morales doit-on programmer l’intelligence qui pilote ces véhicules ? Kantienne, utilitariste, bouddhiste ?

En réalité, ces questions se posent en face de tout système tendant à limiter la liberté de décision humaine. Or, les machines de l’Intelligence artificielle ne sont pas seulement prédictives, elles permettent de se décharger d’une multitude de décisions. Comme le font remarquer Simon Johnson et Jonathan Ruane, dans un papier mis en ligne sur le site Project Syndicate, un décideur humain peut toujours rendre compte de ses décisions. Ce n’est pas le cas d’une IA pilotant un robot. Conclusion : il faudra qu’il y ait toujours, quelque part, un humain « dans la boucle ». Ne serait-ce que pour des raisons légales. Afin d’assumer la responsabilité finale d’une erreur éventuelle.

L’intelligence artificielle et les robots vont-ils faire disparaître nos emplois ? Lesquels ? Et dans quelle proportion ? C’est assurément la grande question du moment, celle qui mobilise les économistes. Pas de doute : les algorithmes et les robots vont détruire un grand nombre d’emplois, en remplaçant des millions d’actifs. Et cela va toucher, comme l’informatisation, la classe moyenne des pays les plus avancés.

Les économistes optimistes s’en remettent à la loi d’Alfred Sauvy : tout gain de productivité réalisé quelque part permet de donner du travail dans un autre secteur. Il y a toujours eu, dans l’histoire, un tel déversement de la main d’œuvre. Ce fut le cas, avec la mécanisation, l’informatique, internet. Ce sera le cas, avec les robots de nouvelle génération, ceux que piloteront des intelligences artificielles. Business as usual.

Les plus optimistes estiment que cette révolution va, du reste, survenir à un moment opportun : nos pays, dont les habitants vieillissent, vont devoir fonctionner avec moins de main d’œuvre et faire face à une forte demande dans les domaines de la santé et des services à la personne. Et d’imaginer déjà des robots domestiques, jouant le rôle de personnes de compagnie et d’infirmiers.

Mais tous ne sont pas aussi optimistes. Comme la révolution numérique, l’intelligence artificielle, estime Maciej Kuziemski, pourrait aussi bien bénéficier surtout aux échelons supérieurs de la hiérarchie du savoir et des revenus, que permettre de sortir de la pauvreté le milliard d’êtres humains qui s’y débattent encore. « Le résultat va dépendre de notre façon de gérer les changements à venir », conclut Kuziemski.

Tous les chercheurs ne partagent pas cette opinion. Pour beaucoup, les technologies ne sont pas neutres. On ne peut se contenter de les utiliser. Elles imposent leur propre logique aux sociétés et en déterminent les hiérarchies…