Des militaires gare d'Austerlitz à Paris, le 14 novembre. ALAIN JOCARD / AFP

La SNCF a annoncé qu’elle expérimentait des technologies de détection des comportements suspects sur ses caméras de vidéosurveillance, tout en appelant à confier de nouvelles prérogatives à ses agents de sécurité, comme le prévoit une proposition de loi en débat à l’Assemblée.

Face au « caractère exceptionnel » de la menace terroriste après les attentats de Paris, la SNCF teste un logiciel d’analyse comportementale qui pourrait être intégré à ses 40 000 caméras de surveillance, a dit le secrétaire général de l’entreprise publique Stéphane Volant à l’AFP. Des annonces que M. Volant a également détaillées dans un message publié sur SoundCloud :

Le logiciel se base sur divers critères, comme « le changement de température corporelle, le haussement de la voix ou le caractère saccadé de gestes qui peuvent montrer une certaine anxiété » et prévoit aussi la détection de bagage ou de colis abandonné.

Techniquement complexe

Des logiciels de ce type existent depuis plusieurs années, et sont principalement utilisés dans des aéroports, en Amérique du Nord mais aussi en Europe, par exemple à Schipol (Pays-Bas). Ils combinent en général plusieurs critères, allant de la température corporelle, analysable par des caméras infrarouges, qui augmente en cas d’énervement, à l’analyse des expressions faciales associées au stress ou à la colère. La démarche des passants, ou encore leur posture, la manière dont ils inclinent la tête ou le mouvement de leurs yeux peuvent aussi signaler un « comportement suspect ».

Article réservé à nos abonnés Lire aussi La dure réalité des agents de sûreté de l’aéroport de Roissy

Mais ces signaux sont flous, complexes à analyser, et très variables d’une personne à l’autre. Ces systèmes de détection produisent donc un très grand nombre de « faux positifs » – un comportement détecté comme anormal qui est en réalité tout à fait ordinaire. Les algorithmes de détection sont également rapidement perturbés lorsqu’ils font face à des changements de luminosité ou face à un très grand nombre de stimuli, notamment dans des lieux publics très fréquentés… comme les aéroports ou les gares. Ils ne sont donc utilisables qu’avec la supervision d’agents de sécurité humains pour « trier » les alertes de la machine. Une étude de l’université britannique Queen Mary (pdf) datant de 2001 résumait :

« Les technologies actuelles souffrent d’un fort taux de faux positifs, d’une sur-sensibilité aux changements dans le contexte visuel en raison de règles très strictes, et d’une mauvaise adaptation aux environnements accueillant des foules. »

Les progrès techniques récents, notamment en matière de reconnaissance faciale, ont amoindri certains de ces problèmes, mais sont loin de les avoir résolus.

« Détection des émotions »

Surtout, ces techniques particulièrement intrusives de « détection des émotions » inquiètent les défenseurs des droits de l’homme et de la vie privée. En Grande-Bretagne, où le nombre de caméras de vidéosurveillance a explosé ces dix dernières années, c’est le responsable du contrôle des outils de surveillance qui s’est ému en janvier 2015 du développement de ces technologies, de plus en plus utilisées dans le secteur privé.

« Je ne suis pas contre la vidéosurveillance », a-t-il expliqué au Guardian.

« Mais le manque d’informations du grand public sur ces questions me trouble. Quand des gens disent que le grand public adore la vidéosurveillance, savent-ils vraiment ce que font ces caméras et ce dont elles sont capables ? Savent-ils qu’avec le développement de la technologie, elles commencent à prédire les comportements ? »

De nombreux observateurs soulignent aussi que la vidéosurveillance a un apport non négligeable à la résolution d’enquêtes, mais reste inefficace pour décourager ou détecter en amont la commission de délit. Et que la multiplication des algorithmes de détection fait courir le risque de basculer dans un système de « justice préventive », conduisant à interpeller des personnes n’ayant commis aucun délit, avec des risques de discriminations et d’erreurs. En Grande-Bretagne, un programme de reconnaissance faciale baptisé « Facewatch » partage ainsi les images de caméras de vidéosurveillance de 10 000 commerçants avec la police. « Cette idée que l’on peut stopper un crime avant qu’il ne soit commis est inquiétante. Ne sommes-nous pas tous innocents tant que nous ne sommes pas reconnus coupables ? », s’inquiète l’ONG Big Brother Watch qui défend la vie privée.

Un test qui a vocation à s’inscrire dans la durée

La SNCF, qui opère son test sous le contrôle de la Commission nationale de l’information et des libertés (CNIL), a d’ores et déjà annoncé son intention d’inscrire cet essai dans la durée, et de ne pas le limiter au risque d’attentat. « On teste pour savoir si ça n’identifie que les gens qui ont une intention négative, un agresseur, ou un “tripoteur”, mais aussi l’acceptabilité sociale », pour voir si les voyageurs sont prêts à accepter de telles technologies, une fois l’état d’urgence levé. Au printemps, une application devrait être lancée pour permettre aux voyageurs de lancer l’alerte à partir de leurs smartphones en cas de comportements suspects.

La SNCF s’interroge également sur la possibilité d’équiper ses agents de caméras portatives. Elles pourraient à la fois identifier les fraudes ou les comportements suspects, mais aussi, si nécessaire, vérifier a posteriori la conformité de l’action des agents avec le code d’éthique et de déontologie de la SNCF et la loi.

Des mesures là encore déjà en place au Royaume-Uni, où de plus en plus de policiers et d’agents de sécurité, dans les transports, les magasins ou sur les campus universitaires, sont équipés de « bodycams », des caméras de type Gopro fixées sur leur uniforme. « Si de plus en plus de gens se promènent avec des équipements de surveillance, il faut qu’ils aient une raison impérative pour le faire », estime, toujours dans le Guardian, le contrôleur britannique de la surveillance.

« Cela change la nature de notre société et cela soulève des questions morales et éthiques sur le type de société dans laquelle nous voulons vivre. »

Par ailleurs, la SNCF soutient la loi en cours d’examen à l’Assemblée sur la sécurité dans les transports. Le texte permettrait aux agents de sécurité de la SNCF et de la RATP de procéder à des palpations de sécurité ou de fouiller des bagages avec l’accord des passagers.

Le Défenseur des droits avait exprimé de « sérieuses réserves sur certaines dispositions majeures » de cette proposition de loi qui donnent selon lui des « missions de sécurité publique à des agents de sécurité privée » de la SNCF et de la RATP. « Le Défenseur des droits est dans son rôle », a réagi Stéphane Volant, tout en soulignant le code d’éthique de la SNCF, et l’importance du partenariat noué avec l’association SOS Racisme pour encadrer ces éventuelles fouilles et palpations.

Le Monde avec AFP