Si la ville revendique 100% de précision lors du test d'une technologie de reconnaissance faciale sur la voie publique, la Cnil se dit incapable de valider ces résultats.

C'était une expérimentation inédite en France. Lors de son carnaval, du 16 février au 2 mars, la ville de Nice a testé la reconnaissance faciale sur la voie publique. 50 personnes volontaires, principalement des employés de la mairie, ont été utilisées comme échantillon pour éprouver la technologie. Certaines ont fourni des photos plus ou moins datées d'elles, d'autres ont été photographiées pour l'occasion. Puis ces photos ont été versées dans des bases de données fictives (personnes disparues, recherchées, interdites de zone…) sur lesquelles est venu se brancher un algorithme de reconnaissance faciale développé par la société israélienne Anyvision, qui compare en temps réel ces photos avec les visages filmés par des caméras de surveillance, puis alerte automatiquement lorsqu'il trouve une correspondance.

Au vu de la difficulté de recueillir le consentement (exigé par la loi) de tous les participants , la ville n'a pas pu tester la reconnaissance faciale sur tout le carnaval. Elle s'est donc bornée à l'une des entrées, par laquelle ont transité 5 000 personnes, dont les 50 cobayes. Pour requérir le consentement du public, des panneaux d'information ont été affichés et des tracts distribués devant l'entrée. Puis les personnes se sont vues répéter à leur passage qu'une expérimentation était en cours, avant de devoir enfiler un bracelet coloré pour manifester leur approbation.

L'algo différencie les jumeaux

Résultat : "Les 50 personnes de notre échantillon ont été reconnues par l'algorithme", se félicite la police municipale niçoise auprès du JDN. L'algorithme aurait même été capable de différencier deux jumeaux monozygotes, nous assure-t-on. Comme d'autres fournisseurs de technologie de reconnaissance faciale, Anyvision revendique plus de 99% de précision. Pourtant, plusieurs travaux de recherche menés sur des algorithmes similaires développés par Amazon, Microsoft ou encore IBM ont démontré que ces algorithmes, entraînés sur des populations trop homogènes, confondaient beaucoup plus souvent les femmes et les personnes de couleur que les hommes blancs. Nice s'est-elle inquiétée de ces problématiques en constituant son échantillon de test ? "Nous avions autant d'hommes que de femmes, mais pour ce qui est des personnes de couleur, nous ne nous sommes pas spécialement posé la question", reconnaît la police municipale.

Prudence du côté de la Cnil. Interrogée par le JDN, l'autorité de protection de la vie privée estime aujourd'hui que "l'évaluation de l'expérimentation ne peut être menée à son terme". Car Nice lui a transmis le 20 juin un bilan jugé largement incomplet après examen. La Cnil a donc demandé à Nice le 16 juillet des précisions sur de nombreux points, dont :

Des mesures objectives et scientifiques de performance de l'algorithme de reconnaissance, ainsi que le détail des caractéristiques de calibration initiales du système.

Une présentation des problématiques rencontrées et des éléments de réflexions concernant les conditions d'expérimentation (jour, nuit) ainsi que la qualité des images tant à l'enrôlement qu'à l'identification (définition, éléments occultant de type chapeau, lunettes).

Des éléments de réflexion sur les risques de discrimination (couleur de peau, sexe, âge…) tant à l'enrôlement qu'à l'identification.

Tester en conditions réelles

Le gendarme de la vie privée affirme n'avoir reçu aucune réponse de la part de Nice, qui n'est pas tenue légalement de lui fournir ce rapport détaillé, dont elle avait "hautement conseillé" la livraison. Contactée par le JDN, la ville explique que les demandes de la Cnil "sont en cours d'instruction par les services municipaux en lien avec la société sous-traitante en vue d'apporter des réponses les plus complètes". Mais elle répond d'ores et déjà à l'un des points soulevés par la Cnil : "La durée et l'espace restreints ont eu pour effet de ne pas nous permettre d'avoir le recul nécessaire […] sur la discrimination éventuelle des personnes en fonction de leur genre, appartenance ethnique ou autre".

Newsletter quotidienne Abonnement newsletters Voir un exemple Les informations recueillies sont destinées à CCM Benchmark Group pour vous assurer l'envoi de votre newsletter. Elles seront également utilisées sous réserve des options souscrites, à des fins de ciblage publicitaire. Vous bénéficiez d'un droit d'accès et de rectification de vos données personnelles, ainsi que celui d'en demander l'effacement dans les limites prévues par la loi. Vous pouvez également à tout moment revoir vos options en matière de ciblage. En savoir plus sur notre politique de confidentialité.

Satisfaite par l'expérimentation, la ville souhaite en tout cas aller plus loin et demande désormais au gouvernement de voter une loi qui lui permettrait de tester ces technologies en conditions réelles, par exemple lors d'une disparition ou d'une recherche de personne en fuite, et pas sur des cobayes volontaires. Nice serait en tout cas le terrain idéal pour conduire un tel essai : avec près de 3 000 caméras déployées, elle est la ville la plus surveillée de France. Les algorithmes n'en rateraient pas une miette.