Suivre les mauvaises lignes ou de faux panneaux

L'Autopilot de Tesla confond une image avec un piéton © Nassi et al.

Lire aussi :

General Motors dévoile des navettes autonomes, mais elles ne sont pas pour tout de suite



L'Autopilot de Tesla suit des lignes projetées au sol © Nassi et al.

Image de panneau de limitation de vitesse trompant Mobileye 630 PRO © Nassi et al.

De potentielles attaques invisibles ?

Source : ZDNet

Une récente étude universitaire a mis en exergue un nouveau défaut de sécurité sur les systèmes d'aide à la conduite de plusieurs véhicules. En l'occurrence, les scientifiques ont testé deux technologies : l'Autopilot de la Tesla Model X HW 2.5 et Mobileye 630 PRO, employé notamment chez Renault, Honda ou Mazda.Le principe de leurs expériences était plutôt simple : projeter des images en 2D sur la route, ou au bord de celle-ci, et observer la réaction automatique des voitures. Et les résultats obtenus ne sont pas vraiment rassurants.Ainsi, les deux systèmes ont été incapables de différencier une projection d'un individu ou d'un véhicule d'un véritable obstacle. Ils ont à chaque fois décidé de ralentir ou de freiner. Plus dangereux encore, les chercheurs ont projeté des lignes factices sur la route, qui ont alors été confondues avec le vrai marquage au sol, entraînant un changement de trajectoire dont les conséquences pourraient être dramatiques.Et la manœuvre fonctionnait également sur le bord de la route. Les systèmes d'aide à la conduite ont en effet été trompés par des images de panneaux de signalisation, adaptant alors leur vitesse à ces fausses indications. Un stratagème qui s'est révélé efficace dans le cas d'une projection sur un mur ou sur un arbre, mais aussi en intégrant le panneau factice au sein d'une publicité vidéo diffusée sur le mobilier urbain.D'après les auteurs de l'étude, ces failles sont d'autant plus inquiétantes qu'elles nécessitent peu de moyens pour être exploitées. Il suffit d'un projecteur vendu dans le commerce, porté à la main ou installé sur un drone, pour détourner la trajectoire d'un véhicule.De plus, de telles attaques pourraient survenir, tout en étant invisibles à l'œil nu. Car les scientifiques indiquent qu'une exposition de quelques centaines de millisecondes seulement aux fausses images pourrait suffire à leurrer l'Autopilot ou Mobileye 630 PRO.Les constructeurs auraient été prévenus de ces dysfonctionnements, mais n'auraient pas encore apporté de solution. Charge à eux désormais de résoudre le problème, peut-être en s'inspirant des technologies de reconnaissance faciale, capables de distinguer un visage humain d'une photo.