Des chercheurs en économie, en informatique et en psychologie ont publié une étude sur l’éthique des voitures autonomes et la réaction à programmer en cas de situation qui doit mener à une collision potentiellement mortelle. En d’autres termes : qui la voiture doit choisir de tuer ? Cette question morale est évidemment délicate et terriblement complexe à transposer en données informatiques. Jean-François Bonnefon, de l’Université de Toulouse, Azim Shariff de l’Université de l’Oregon et Iyad Rahwan du MIT (Massachussetts Institute of Technology) ont traité ce dilemme.

Cas typique

Pour comprendre le choix extrême de sacrifier une personne, un cas a été développé. Un groupe de plusieurs personnes traverse la route de manière imprévisible. La voiture n’ayant plus le temps de freiner, elle ne peut que sortir de la route pour éviter une tragédie. Quitte à tuer un piéton seul sur le trottoir (a et c). Cette solution de sortie de route serait aussi celle à adopter face à un piéton seul (b). On le voit, c’est d’abord le conducteur et les occupants du véhicule qui seront considérés comme étant ceux « à tuer ». La problématique se complique encore si le groupe sur la route est composé d’adultes et que sur le trottoir se trouve un enfant. Un être humain sera généralement tenté de protéger la vie d’un enfant, mais surtout la sienne et celle de ses proches. Pas forcément la machine…

Choix cruel

Jean-François Bonnefon et ses co-auteurs indiquent qu’il est éthiquement acceptable d’envoyer une voiture autonome dans le mur pour éviter un motocycliste puisque la chance de survie des passagers de l’automobile est plus grande que celle du motard. Mais que choisir si dans l’habitacle il y a aussi des enfants ? Faut-il toujours envisager de sacrifier le conducteur et ses passagers ? Les constructeurs pourraient adopter des algorithmes « moraux » différents, laissant le choix au conducteur de favoriser un scénario à haute moralité ou celui favorisant sa propre survie. Mais qui faudra-t-il dès lors blâmer après un accident tragique : le conducteur qui a préféré une programmation protégeant sa vie en priorité ou le constructeur qui a proposé cette option dans le code éthique de sa voiture ? On le voit, les questions sont nombreuses et, selon les auteurs, il est urgent d’y répondre avant que les voitures autonomes envahissent les routes.

L’homme et la machine

En outre, les vidéos récentes sur le comportement parfois étrange des Tesla en mode semi-autonome montrent autant les limites du système que la propension de l’être humain à le tester au-delà du raisonnable. De plus, certaines catégories de personnes ont tendance à sous-estimer les risques et à se mettre en danger, ainsi que les usagers qu’elles croisent. Sans parler des problèmes de fatigue, d’agressivité, de drogue et d’alcool. Des types de déviance qu’une machine ne doit pas avoir. Ce qui en fait alors un véhicule plus sûr dans un trafic coordonné et classique. Par contre, il pourrait mal interpréter une situation hors norme. La voiture autonome manquera assurément d’inventivité et d’improvisation et mal réagir. D’autant qu’elle a un autre gros défaut : elle n’a pas peur de la mort…

L’étude dans son intégralité (en anglais)