Selon un rapport du Conseil national de la sécurité des transports, le système de conduite autonome n'a pas considéré qu'il s'agissait d'une piétonne mais a pris la victime pour un "objet".

La victime avait été détectée, près de 10 secondes avant le choc. La voiture autonome d'Uber impliquée dans un accident ayant coûté la vie à une femme en mars 2018 n'était pas programmée pour reconnaître les piétons traversant en dehors d'un passage clouté, a indiqué mardi 5 novembre le Conseil national de la sécurité des transports (NTSB).

Dans un rapport publié avant une audition visant à déterminer la cause probable de l'accident, le 19 novembre, l'organisme a affirmé que la technologie d'Uber "ne prenait pas en compte l'éventualité de piétons traversant hors des clous". Le nouveau document précise que "le système ne l'a jamais classée comme piétonne" mais comme un "objet".

Le freinage d'urgence ne s'est pas déclenché

Un rapport préliminaire du Conseil national de la sécurité des transports avait déjà annoncé que le logiciel avait bien repéré, près de six secondes avant le choc, la femme de 49 ans qui marchait à côté de son vélo de nuit. Quand le logiciel a déterminé qu'une collision était imminente, le freinage d'urgence n'a volontairement pas été déclenché car il aurait provoqué un écart trop violent.

Tous les tests de conduite autonome d'Uber ont été suspendus sur la voie publique juste après cette collision fatale sur une route de Tempe, dans la banlieue de Phoenix en Arizona, avant d'être repris quelques mois plus tard. Selon Uber, la nouvelle version de sa technologie aurait permis de reconnaître correctement la piétonne et de déclencher un freinage contrôlé plus de quatre secondes avant l'impact.