La voiture autonome y voit-elle suffisamment clair sur la route ? Pas toujours comme le soulignait un article de Sciences et Avenir publié en mai 2018 qui rappelait les difficultés des algorithmes de vision par ordinateur à tenir compte des intempéries (pluie, neige...). Sans compter que les raisons de la collision mortelle avec une cycliste tenant son vélo à pied d'un véhicule semi-autonome d'Uber sont encore mal comprises, l'algorithme ayant conclu - par erreur - à l'absence de piéton.

La start-up allemande BrigherAI entend déployer une nouvelle approche pour que les ordinateurs puissent mieux traiter les images brutes qui proviennent des caméras de la voiture autonome. Le principe : la décomposer en différentes couches mettant en relief des informations différentes (contexte météo, informations personnelles - visages, ou plaques minéralogiques - à camoufler) grâce à l'intelligence artificielle. La jeune pousse a remporté le Inception Award organisé par le fabricant de matériel informatique (notamment destiné au deep learning) Nvidia à Munich, où étaient en compétition 1600 start-up européennes dans le domaine de l'intelligence artificielle.

Comment fonctionne cette technologie ? Explications avec Marian Gläser, cofondateur de BrighterAI.

Effacer les intempéries et les plaques minéralogiques

Pourquoi subdiviser une image en différentes couches ? "La vision humaine reste meilleure que les caméras, notamment la nuit, ou en cas d'intempéries", explique Marian Gläser. "C'est ce qui a motivé notre approche, qui consiste à générer plusieurs niveaux d'information à partir d'une image brute : par exemple, un niveau qui va améliorer les contrastes et la luminosité en cas de conduite nocturne, un niveau qui va éliminer le brouillard en cas d'intempérie, ou encore un niveau d'anonymisation qui va effacer des données personnelles apparaissant à l'image, telles que des visages ou des plaques minéralogiques."

GAN. Comment BrighterAI s'y prend pour extraire ces informations ? "Nous utilisons des GAN (Generative Adversarial Networks), un type de réseau de neurones artificiels où deux modèles travaillent en concurrence : un premier génère des images de façon aléatoire à partir de l'image de base, tandis que le second modèle évalue la conformité de l'image générée à un critère donné." De quoi extraire l'information souhaitée, et uniquement celle-ci.

RGPD et traitement des données : pourquoi le floutage des visages ne suffit pas

La jeune pousse étend aussi aux visages sa logique de générations d'images aléatoires, afin de les anonymiser. Pourquoi faire aussi compliqué, alors que les méthodes couramment utilisées recourent plutôt au floutage ou à la pixellisation ? "Si vous appliquez ce genre de filtre, les algorithmes de reconnaissance d'image sont perdus", poursuit le CEO de BrighterAI. "L'image perd alors de l'information, elle ne peut plus être utilisée par certains algorithmes d'IA". L'exemple ci-dessous montre comment la pixellisation d'un visage met en échec l'algorithme de Google DeepMind.

RGPD. La méthode proposée ici permet d'anonymiser les visages en générant un autre visage aléatoire impossible à identifier, "de façon irréversible", tout en préservant les autres aspects signifiants de l'image, qui peuvent ainsi toujours faire l'objet de traitements automatisés. En ligne de mire, la question du droit à la vie privée. Le Règlement général de protection des données (RGPD) a en effet instauré un cadre très strict début 2018 en Europe. "Les constructeurs ne peuvent garder des données personnelles que pendant 48h dans le véhicule, et uniquement lorsque c'est motivé par des raisons de sécurité", poursuit Marian Gläser. C'est dire si l'enjeu de conformité réglementaire est grand pour les constructeurs de véhicules embarquant des caméras... "Nous travaillons déjà sur ces questions avec deux constructeurs allemands", glisse-t-il.

L'anonymisation "naturelle" vise à remplacer les traits d'une personne par un visage / Crédits : Brighter AI

Pour l'instant, le système de BrighterAI est accessible sur un serveur distant. Mais à terme, il pourra être réalisé à la volée, directement dans la voiture, lorsque la puissance de calcul accessible sera suffisante. "Notre système actuel permet de traiter 3 à 4 images par seconde, ce qui est encore insuffisant pour le temps réel (ndlr : où défile 20 à 25 images par secondes). Mais avec le prix que nous avons remporté avec Nvidia - un supercalculateur DGX ainsi que 100 000 dollars -, nous pourrons désormais faire encore mieux." Outre les voitures autonomes, la firme espère aussi travailler avec des entreprises du commerce de détail et de vidéosurveillance.