C'est arrivé sur une route à trois voies de la côte ouest des Etats-Unis, en Californie, près de San Francisco, plus exactement à Mountain View, non loin du siège de Google.

Une voiture de marque Lexus qui roulait sur la file de droite s'est retrouvée face à des sacs de sable. Pour les éviter, elle a ralenti afin de déboîter à gauche. Puis, après avoir laissé passer plusieurs véhicules, elle s'est engagée très lentement sur la voie centrale.

Elle pensait que l'autocar devant lequel elle voulait se faufiler allait lui laisser la priorité. Le chauffeur du bus a probablement estimé, à l'inverse, que le poids de son véhicule allait dissuader la Lexus de s'engager. Et boum ! Les deux véhicules se sont retrouvés au même endroit au même moment.

Un cas d'école

Il s'agit du récit d'un banal accident de la route. Mais il a fait le tour de la planète. Et pour cause : la Lexus n'avait pas de chauffeur. Elle était guidée par un logiciel conçu par Google. La personne située devant le volant, un pilote d'essai employé par le géant d'internet, avait pour consigne d'intervenir uniquement en cas de danger. Et pour la première fois, Google, qui teste ses prototypes en circulation et n'en est pas à son premier accident, s'est déclaré responsable. Il s'agit donc d'un cas d'école.

"C'est un exemple classique d'arbitrage qui fait partie intégrante de la conduite : nous essayons tous d'anticiper les mouvements des uns et des autres", a expliqué Google.

Mais ce qui relève de l'appréciation humaine est parfois dure à appréhender par le robot. L'entreprise a immédiatement annoncé une modification de son logiciel d'intelligence artificielle afin de mieux prendre en compte le poids des véhicules dans le respect des priorités. Mais pourra-t-elle anticiper toutes les situations ? Cet accident révèle les bouleversements qui vont accompagner la révolution de la voiture sans chauffeur.

Fin du bonus-malus pour les conducteurs

La voiture sans chauffeur signifie la fin d'un principe bien établi : la responsabilité du conducteur. Aujourd'hui, pour être sûr que les victimes d'accidents soient indemnisées, c'est la personne au volant qui se retrouve devant le tribunal.

"90% des accidents ont pour origine une erreur de conduite, explique François Nedey, directeur technique assurances et responsabilités chez Allianz France. Il est rarissime de constater qu'un défaut sur un véhicule en soit la cause."

Depuis Mountain View, c'est différent. Si le centre de décision se déplace du cerveau du conducteur au disque dur de la voiture, il en va de même de la responsabilité devant la loi.

"Il est difficile de reprocher au conducteur d'avoir choisi le mauvais véhicule ou le mauvais logiciel", note François Nedey.

Dans ces conditions, le système actuel de bonus-malus, qui récompense les bons conducteurs - par une ristourne sur l'assurance - et pénalise les mauvais élèves, aura de moins en moins de pertinence.

Un permis de conduire pour logiciel

L'autre enseignement de Mountain View, c'est la question du logiciel.

"Personne ne contrôle aujourd'hui que les algorithmes qui déterminent les réactions du véhicule correspondent à la loi, au code de la route, et à l'éthique de la conduite", explique François Nedey.

Et force est de constater qu'il ne suffit pas de respecter le code de la route pour ne pas avoir d'accident. Il faut aussi un code de bonne conduite.

A l'avenir, il est probable que les autorités mettent en place un système d'homologation des logiciels. Un permis de conduire pour robots ! Les assureurs, s'ils doivent couvrir les constructeurs, l'exigeront. Mais il faudra résoudre un problème particulièrement complexe.

Pour homologuer un véhicule, il faut le tester dans un maximum de situations. Mais pour une voiture autonome, le nombre de ces situations est presque infini. Impossible de tout anticiper !

L'autre solution consiste à valider le système d'intelligence artificiel lui-même. Mais pour cela, il faudrait que les éditeurs des logiciels acceptent de livrer leurs précieux algorithmes à des tiers… Et que ceux-ci aient le niveau de connaissance pour les comprendre et les juger.

Plus de permis pour les conducteurs ?

L'autre question fondamentale posée par l'accident de Mountain View, c'est la place de l'humain dans la voiture autonome. Doit-il être en position d'intervenir à tout moment ? En Europe, la convention de Vienne impose aujourd'hui que le conducteur garde les deux mains sur le volant, au cas où. Elle va être modifiée pour laisser place à l'expérimentation de la voiture autonome. Mais avant la commercialisation de voitures autonomes, il faudra repenser l'ensemble des règles.

D'ici là, Google montre patte blanche, en assumant sa responsabilité. Car à quoi bon disposer d'une voiture autonome si on doit l'assister ? A quoi bon avoir une voiture sans chauffeur s'il est interdit de téléphoner, de lire ou de fumer… ? Faudrait-il savoir faire un créneau si toutes les voitures se garaient automatiquement ? A terme, le véhicule ralentira automatiquement en ville, mettra toujours son clignotant, et ne klaxonnera pas. Il ne servira probablement plus à rien d'apprendre le code de la route, ni de savoir conduire.

Une cohabitation délicate

La voiture sans chauffeur pour tous n'est pas pour tout de suite.

"Le jour où un véhicule sera considéré comme vraiment autonome, estime François Nédey, il saura éviter un petit chantier place de l'Etoile à Paris."

Certains évoquent 2050, d'autre 2100. Plus tôt, espère sûrement Google. D'ici là, voitures avec et sans chauffeurs vont devoir cohabiter. Et cette phase s'annonce délicate. Comme le montre le cas de Mountain View, il est difficile pour les robots d'anticiper les réactions des chauffeurs et inversement.

Durant cette phase, la répartition de la responsabilité s'avèrera complexe. François Nedey imagine un régime de responsabilité sans faute, comme il en existe dans la construction, où de nombreux acteurs interviennent. Le conducteur sera responsable, mais il pourra se retourner vers le constructeur. Qui devra ensuite se retourner vers ses fournisseurs : les équipementiers, mais aussi les éditeurs de logiciels comme Google. Pour répartir les torts, il faudra implanter dans chaque véhicule une boîte noire, comme dans les avions. Elles recueilleront les données faisant foi pour l'ensemble des industriels impliqués dans un accident. Cette phase a déjà presque commencé.

"Certains constructeur nous demandent à être couverts pour leurs systèmes de sécurité actifs", explique l'expert.

Depuis la généralisation des ABS, Airbags et régulateurs de vitesse, l'industrie a fait de gros progrès. Parking, respect des distances de sécurité, freinage et trajectoires d'urgence, maintien dans la même file sont maintenant automatisés sur de récents modèles hauts de gamme. Lorsque les voiture seront totalement autonomes sur une partie voire sur l'intégralité du réseau routier, les constructeurs devront être intégralement couverts.

Avec la multiplication des voitures autonomes, une autre forme de cohabitation devra être organisée : celle entre différents logiciels, avec des algorithmes différents. En cas d'obstacle, si le véhicule A est programmé pour le contourner par la gauche, le véhicule B par la droite et qu'ils sont en sens inverses… ils se percuteront.

Même si les robots conduisent plus prudemment que les humains, il faudra aussi leur faire respecter les règles. Elles sont parfois difficiles à déterminer. Il faudra choisir entre la vie d'un conducteur et celle d'une famille de piétons.

Donald Hébert