Ricercatori nel campo della cybersicurezza al lavoro per Keen Labs (di Tencent) hanno dichiarato di essere riusciti a ingannare il sistema Autopilot delle auto Tesla costringendolo a dirottare l'autovettura verso un ipotetico traffico in arrivo sull'altra corsia. Il tutto incollando tre piccoli adesivi sul manto stradale. Tesla è intervenuta sin da subito sottolineando che l'exploit non è mai stato sfruttato pubblicamente e ha ringraziato il team di ricercatori per aver scoperto la falla nel sistema di guida assistita.

Keen Labs, apparso già due volte nel programma di caccia al bug di Tesla, ha scritto all'interno di un documento di ricerca pubblicato lo scorso sabato che ha provato nello specifico due metodi diversi per ingannare il sistema di riconoscimento della corsia adottato da Autopilot semplicemente cambiando fisicamente le caratteristiche della superficie stradale.

Il primo metodo, non andato in porto, consisteva nel confondere Autopilot utilizzando delle toppe al fine di rendere meno nette o nascondere le strisce che limitano la corsia di sinistra. Si tratta di un sistema difficile da implementare su strada reale e semplice da riconoscere, sia per eventuali operatori umani sia per i sistemi computerizzati di Tesla: "Non è semplice per gli aggressori installare sistemi non invasivi nel mondo reale per disabilitare la funzione di riconoscimento della corsia installata in un veicolo Tesla", ha dichiarato Keen Labs.

I ricercatori hanno però intuito che le auto Tesla riuscivano a gestire la situazione in maniera appropriata perché i sistemi sono stati addestrati con "linee di corsia anomale" durante le fasi di training. Questo anche per gestire le situazioni di scarsa visibilità, o in presenza di manto stradale bagnato o innevato. Ma cosa succederebbe se il sistema venisse ingannato con linee di corsia in realtà non reali? È questa la domanda che si sono posti i ricercatori di Keen Labs, che hanno provato a tratteggiare tre piccoli segni rettangolari nella corsia come se le due corsie dovessero unirsi in un unico senso di marcia. Così facendo l'auto è stata fattivamente ingannata, provocando una pericolosa sterzata verso la corsia di sinistra dove, in teoria, avrebbe dovuto transitare il traffico nel senso opposto.

Si tratta di un comportamento ancor più pericoloso rispetto al mancato riconoscimento del limite della corsia, fa notare il laboratorio: "Ingannare il veicolo con Autopilot facendogli raggiungere una corsia nel senso opposto con alcuni segni realizzati da un aggressore con finalità malevole può essere più pericoloso che impedirgli il riconoscimento della corsia. Se il veicolo, invece, riuscisse a riconoscere i segnali che vogliono condurlo alla corsia con le auto provenienti nel senso opposto potrebbe facilmente ignorarli ed evitare un grave incidente.

In risposta a quanto rivelato da Keen Labs Tesla ha dichiarato che il problema "non rappresenta qualcosa di riproducibile nel mondo reale", e nessun autista ha verificato o identificato problemi di questa natura: "In questa dimostrazione i ricercatori hanno approntato un ambiente fisico intorno al veicolo per far sì che la macchina si comportasse in maniera diversa rispetto al normale", fa sapere l'azienda americana. "Non è una preoccupazione reale visto che un pilota può bypassare facilmente Autopilot usando lo sterzo o i freni e dovrebbe essere pronto a farlo in ogni momento".

Le scoperte di Keen Labs non sono quindi idonee per la partecipazione al programma "bug-bounty" di Tesla, tuttavia le due realtà rimarranno in contatto al fine di migliorare la sicurezza e l'affidabilità dei sistemi automatizzati dei veicoli con funzionalità di guida autonoma.