En 2016, le MIT a lancé un questionnaire nommé « machine morale » pour évaluer les choix éthiques du public si une voiture autonome doit tuer quelqu'un dans un crash inévitable. Deux ans plus tard, les résultats ont fait l'objet d'une étude publiée dans la revue Nature.

C’est la version moderne du dilemme du tramway, une expérience de pensée qui vous place devant un choix impossible. Si vous étiez une voiture autonome, quelle décision prendriez-vous si vous ne pouviez pas éviter un accident mortel inévitable ? Sacrifieriez-vous la ou les personnes se trouvant à bord ? Ou plutôt les piétons ? Baseriez-vous votre décision sur certaines caractéristiques des futures victimes ?

Ce sont ces questions qui ont été soumises au public, à travers la « machine morale » proposée sur le site du MIT. Il s’agit d’un questionnaire vous demandant de vous positionner sur des problématiques éthiques insolubles, mais qui vont se poser aux concepteurs de systèmes de conduite autonome et, donc, à l’industrie automobile. Car ces situations pourraient survenir.

Qui sacrifier en priorité ?

En cas de crash imminent et inévitable, parce que les freins ont lâché par exemple, faut-il plutôt encastrer la voiture dans un mur, quitte à sacrifier le conducteur (mais qui voudrait en acquérir une, s’il sait que son bien prévoit de le tuer dans certaines circonstances ?) ? Ou mieux vaut-il la laisser filer sur les piétons qui traversent ? Faut-il compter le nombre de victimes potentielles dans chaque cas de figure ?

Les réponses, très nombreuses, apportées par le public depuis la mise en ligne de la « machine morale » en 2016, ont depuis fait l’objet d’une étude, publiée dans la revue Nature (intitulée L’expérience de la Machine morale). Grâce au succès du projet, ce sont 40 millions de décisions morales qui ont été prises par des millions d’internautes et provenant du monde entier.

Nous avons donc une bonne photographie de ce que pensent les individus sur la conduite à avoir en cas de sacrifice inévitable. Il ressort par exemple que, globalement, les gens sont d’accord pour épargner les humains plutôt que les animaux ou bien sauvegarder la vie des enfants en priorité plutôt que celle des adultes. Et bien sûr, il vaut mieux privilégier le scénario le moins coûteux en nombre de vies.

Sensibilités différentes selon les pays

Bien sûr, il existe des variations locales, selon les pays.

Par exemple, la préférence pour sauver les jeunes plutôt que les vieux est plus prononcée dans les pays du groupe du Sud, dont fait partie la France, que le groupe de l’Est. Par contre, le groupe du Sud a une préférence moins marquée pour épargner les humains plutôt que les animaux de compagnie, comparativement aux deux autres groupes (Est et Ouest, il n’y a pas de groupe du Nord). Ces intitulés de groupe ne sont pas liés à la position des pays dans le monde par rapport aux points cardinaux.

Ces variations entre les pays s’expliquent potentiellement par des facteurs culturels et économiques. Par exemple, « nous observons des différences systématiques entre les cultures individualistes et les cultures collectivistes », est-il écrit. Les premières, « qui mettent l’accent sur la valeur distinctive de chaque individu, montrent une préférence plus marquée pour épargner le plus grand nombre de gens ».

Ils ajoutent : « De plus, les participants de cultures collectivistes, qui mettent l’accent sur le respect dû aux membres plus âgés de la communauté, manifestent une préférence plus faible pour les personnages plus jeunes ». Dès lors, cette différence d’appréciation entre les deux cultures « peut s’avérer un obstacle important pour des règles éthiques universelles sur la machine ».

Comment définir un cadre commun ?

Cependant, si un cadre global peut être délicat à obtenir, des règles régionales peuvent être envisagées, partagées par plusieurs pays partageant une proximité géographique et culturelle, de manière « à converger vers des préférences communes en matière d’éthique des machines ». Outre le type de culture, le niveau de vie des pays (évalué via le produit intérieur brut), la démographie et la qualité des règles et des institutions constituent les autres grands facteurs.

Ces critères peuvent avoir un effet, par exemple, sur l’attitude du public selon telle ou telle situation.

Par exemple, quelqu’un traversant hors des clous plutôt que sur le passage piéton n’est pas un facteur discriminant aussi saillant dans les pays ayant des institutions faibles et un niveau de vie moins élevé, par rapport à des nations avec des règles fortes (et appliquées) et un meilleur PIB.

Sans doute faut-il comprendre ce résultat au regard de la situation propre des répondants , qui sont peut-être amenés eux-mêmes à traverser hors des clous. Dès lors, peut-être ne souhaitent-ils pas opter pour un choix qui les transforme en variable sacrifiable.

Reste que pour les auteurs de l’étude, certaines orientations morales générales, qui sont partagées par le plus grand nombre, « peuvent être considérées comme des éléments constitutifs essentiels de l’éthique des machines, ou du moins comme des sujets essentiels à prendre en compte par les décideurs politiques ». Comme un socle sur lequel bâtir des règles éthiques et, par la suite, des algorithmes adéquats.

Des scénarios pour évaluer l’éthique

L’étude a cherché à mettre en lumière neuf critères discriminants : outre les oppositions humains / animaux, jeunes / seniors et peu de victimes / beaucoup de victimes, la machine morale a interrogé le public sur les oppositions suivantes : passagers / piétons, hommes / femmes, maintenir le cap / faire une embardée, pauvres / riches, personnes en bonne santé / personnes en mauvaise santé, et individus traversant sur un passage piéton / individus traversant la route hors des clous.

La machine morale a aussi ajouté quelques personnages dans certains scénarios, comme des médecins, des femmes enceintes et des criminels, mais ceux-ci « n’étaient liés à aucun de ces neuf facteurs », expliquent les auteurs. Il s’agissait avant tout de rendre les diverses questions moins répétitives pour le public — et cela, même si le questionnaire était plutôt court, avec treize mises en situation.

Interrogé par The Verge, Edmond Awad, l’un des signataires du papier de recherche, explique que « ce que nous essayons de montrer ici, c’est l’éthique descriptive : les préférences des gens en matière de décisions éthiques. Mais quand il s’agit d’éthique normative, c’est aux experts de faire les choses comme il faut ». Comprendre : ce ne sont peut-être pas ces réponses qu’il faut suivre.

Questions de vie ou de mort

Mais un consensus se dégage sur le fait qu’il est important de discuter dès maintenant de ces questions et de réfléchir aux réponses qu’il faut y apporter, même si aujourd’hui les voitures autonomes ne sont pas encore réellement autonomes et qu’elles ne disposent pas (encore ?) de capteurs lui permettant d’identifier toutes les caractéristiques permettant ce type de discriminations.

Car le jour où les voitures rouleront vraiment toutes seules et qu’elles disposeront d’outils d’identifications très puissants, il sera préférable d’avoir déjà sous la main un corpus de lignes directrices, même si les crashs inévitables et mortels plaçant le système de conduite autonome devant des choix aussi cornéliens ne seront heureusement pas si fréquents que cela.

« Ce qui se passe avec les véhicules autonomes peut donner le ton aux autres intelligences artificielles et à la robotique, puisqu’ils sont les premiers à s’intégrer dans la société à grande échelle », juge Patrick Lin, un universitaire spécialisé dans les questions éthiques, à The Verge. « Il est donc important que la conversation soit aussi informée que possible, car des vies sont littéralement en jeu ».

Partager sur les réseaux sociaux Tweeter Partager Partager Partager redditer

La suite en vidéo