Nozha Boujemaa, responsable de la plate-forme TransAlgo, lors d’O21 / s’orienter au 21e siècle, les 4 et 5 mars, à Paris. CAMILLE MILLERAND

Selon quels critères fonctionnent les systèmes de recommandation personnalisée ? Google classe-il les résultats de recherche de façon neutre ? Les algorithmes sont partout dans notre vie quotidienne numérique, déterminant ce que l’on voit sur les plates-formes d’achat en ligne, les réseaux sociaux ou les moteurs de recherche. Et il est crucial de comprendre les mécanismes à l’œuvre, et de s’assurer qu’ils respectent les intérêts des consommateurs comme les droits des citoyens, explique Nozha Boujemaa, spécialiste de la science des données.

Pour ce faire, cette directrice de recherche à l’Institut national de recherche en informatique et en automatique (Inria), a été chargée en décembre 2016 de lancer la plate-forme TransAlgo pour la transparence et la responsabilité des algorithmes et des données, dans la foulée de la loi pour une République numérique. Elle explique ce projet et ses enjeux dans un entretien, qui prolonge son intervention à la conférence « Big data, code… Comment profiter du boom des nouvelles technologies », lors de notre événement O21/s’orienter au 21e siècle, organisé les 4 et 5 mars à Paris.

A quels problèmes le projet TransAlgo entend-il apporter une solution ?

TransAlgo est née d’un constat : il existe une asymétrie d’informations entre d’un côté les citoyens ou les consommateurs, et de l’autre, les plates-formes numériques. Et ce dans plusieurs domaines.

Prenons les systèmes de recommandation. Quand un produit nous est recommandé sur une plate-forme, l’est-il de façon fidèle à nos traces de parcours, nous permet-il d’aboutir à un service personnalisé – ce qui est plutôt intéressant et utile –, ou bien cela dépend-il des stocks du vendeur à l’origine de ce service de recommandation ? Pour le moment, on n’a pas cette information.

Autre exemple, la tarification volatile : quand on navigue sur le Web pour réserver un billet d’avion ou une chambre d’hôtel, on ne se voit pas tous proposés les mêmes prix, qui varient notamment en fonction du lieu ou du moment de réservation. La Direction générale de la concurrence, de la consommation et de la répression des fraudes (DGCCRF) souhaite comprendre si les moteurs de classement sont conçus à partir de critères objectifs ou non. Il semblerait que ce soit malheureusement plutôt la deuxième option qui a jusqu’ici été constatée.

Ensuite, quand une application permettant de se diriger à pied, en voiture ou en transports en commun nous propose un trajet, avons-nous la garantie que celui-ci est optimal en distance et en temps ou bien est-ce un trajet qui nous fait passer par des points d’intérêt commerciaux ? Enfin, le classement des moteurs de recherche, tels que Google, n’est pas toujours neutre : les accords passés avec les marques peuvent altérer l’ordre de l’information donnée au consommateur.

A quoi ressemblera et servira concrètement TransAlgo ?

Dans un premier temps, l’objectif est de mettre en place un centre de ressources, car si on parle beaucoup d’algorithmes et de données, tout le monde ne parle pas toujours de la même chose. TransAlgo sera ainsi un portail pédagogique en ligne à destination du grand public qui expliquera pourquoi la transparence est importante et définira certains concepts, comme la loyauté et l’équité des algorithmes. C’est pour cela que je ne me suis pas seulement entourée de scientifiques, de mathématiciens et d’informaticiens, mais aussi de sociologues, d’économistes et de juristes.

A terme, l’idée est de développer des outils, c’est-à-dire des algorithmes, pour surveiller les biais éventuels des algorithmes. Pour ce faire, on financera des thésards et des post-docs qui travailleront avec ceux qui reçoivent des plaintes d’utilisateurs, comme la DGCCRF. Nous voulons également mettre à disposition un forum de discussion et des outils de test des algorithmes, que tout un chacun pourra télécharger.

TransAlgo s’inspire-t-elle de projets étrangers ?

Nous sommes pour ainsi dire pionniers à l’échelle mondiale. On collabore avec le Data Transparency Lab du MIT, Telefonica, AT&T et Mozilla, à la différence qu’eux ne développent pas de plate-forme, ils organisent des cycles de conférence et financent des thèses. Et cela pour une raison simple : la loi pour une République numérique existe en France, et pas ailleurs. TransAlgo est née du besoin d’outils de mesure qui permettront aux juristes français de faire appliquer cette loi.

L’idée est d’œuvrer pour la symétrie informationnelle : est-ce s’assurer que l’utilisateur et le concepteur de l’algorithme ont la même quantité de données ?

Ce n’est pas du tout une question de quantité de données, mais de consentement, d’utilité, d’appropriation et de confiance dans les services. Il s’agit de savoir quelles sont les données utilisées par les concepteurs de services numériques, comment, dans quel but, pourquoi telle option nous est recommandée et selon quel critère.

La transparence des algorithmes ne constitue donc pas uniquement un enjeu économique ?

Non, c’est une question démocratique. Lorsque les algorithmes du big data et de l’intelligence artificielle sont mal déployés ou utilisés de façon peu précises, il peut y avoir un biais dans les données ou les paramètres utilisés, qui provoquent des discriminations. Les technologies peuvent inclure ou exclure.

Un algorithme peut donc être déloyal ? de quelle façon ?

Typiquement, un mécanisme de recommandation qui offre un service personnalisé est loyal envers le consommateur. A l’inverse, quand la recommandation optimise les ressources ou les stocks du vendeur, elle est loyale envers ce dernier, mais déloyale envers le consommateur.

Si on arrive à mesurer que le service numérique ne fait pas ce qu’il dit faire, on obtient une mesure de non-loyauté. Par exemple, on est en droit de se demander pourquoi une application de lampe torche demande à accéder au carnet d’adresses d’un téléphone.

N’est-ce pas étrange de s’en remettre à des algorithmes pour réguler d’éventuels biais algorithmiques ? Peut-on réellement faire confiance à cette méthode ?

Ce ne sont pas les algorithmes qui sont biaisés. Ce sont les concepteurs qui peuvent avoir des critères parfois avouables et parfois non. C’est pour cela qu’on parle d’éthique : il s’agit des motivations des personnes qui ont développé ces algorithmes. Elles ne disent parfois pas tout ce qu’elles ont codé à l’intérieur. Les algorithmes que nous développerons tâcheront de comprendre le comportement de ces services numériques, les critères qu’ils utilisent, à la façon du reverse engineering [« rétro-ingénieurie » : activité qui consiste à étudier un objet pour en déterminer le fonctionnement interne ou la méthode de fabrication] par exemple.

Dans certains pays, il est légal que les algorithmes prennent en compte des critères ethniques ou géographiques par exemple, en France non. C’est tout l’enjeu : s’assurer que les algorithmes respectent la législation française et les règles éthiques.

Les applications de navigation et les algorithmes de recommandation ne sont pas les seuls à poser question. Allez-vous réguler également les algorithmes de Facebook et d’Admission post-bac, qui suscitent de nombreuses polémiques ?

Pour ce qui est des réseaux sociaux, le champ est très large. Nous allons nous concentrer sur le fact checking, c’est-à-dire le développement d’outils permettant de vérifier la véracité des informations qui circulent en ligne. Quant au dévoilement de l’algorithme de la plate-forme Admission post-bac, qui permet aux lycéens de faire leurs vœux d’orientation vers les études supérieures, il est aussi prévu : la loi pour la République numérique veut que l’Etat donne l’exemple en matière de transparence.