Le journaliste David J. Lynch (@davidjlynch) livre pour le Financial Times une intéressante enquête sur les enjeux de la tarification algorithmique qui consiste à confier à des systèmes techniques le soin de fixer les prix. Il revient notamment sur la condamnation en 2015 par une cour américaine de David Topkins, qui avait reconnu manipuler la place de marché d’Amazon, avec la complicité d’un concurrent, en programmant un algorithme pour que les posters qu’ils y vendaient restent à des prix artificiellement hauts. Certes, pour l’instant, les posters de M. Topkins font pâle figure comparés aux monopoles de la fin du XIXe siècle qui ont donné naissance aux lois antitrusts. Pourtant, cette condamnation illustre les nouvelles capacités de distorsion des marchés par la technologie qui s’apprêtent à transformer radicalement le paysage réglementaire.

A qui profitent les systèmes de tarification algorithmiques ?

Les promesses que ses systèmes sachent élargir le choix et proposer des prix bas aux usagers pourraient rapidement disparaître tant les systèmes automatisés sont capables d’optimiser les prix au bénéfice du vendeur qui les programme. C’est ce qu’expliquent notamment les professeurs de droit Maurice Stucke et Ariel Ezrachi dans leur livre, Compétition virtuelle : promesses et périls d’une économie conduite par les algorithmes. Selon eux, la nouvelle dynamique des marchés que représentent le numérique et la compétition autour des nouvelles technologies produirait plus un « mirage compétitif » qu’une réelle compétition. La « main invisible » des marchés est devenue une « main numérique », bien plus sujette à la manipulation que nous le pensons. « La main numérique donne naissance à de nouveaux comportements anti-compétitifs, contre lesquels les autorités chargées de la régulation sont mal équipées. » Si les systèmes techniques peuvent intensifier la compétition, cette allégation est aujourd’hui beaucoup moins démontrée qu’affirmée, assurent-ils dans l’introduction de leur ouvrage.

Le risque est qu’à mesure que les systèmes de tarification automatisés sont appelés à devenir de plus en plus autonomes, les ordinateurs deviennent capables de créer leurs propres collusions en apprenant de leurs propres interactions, sans laisser derrière eux de preuves d’ententes incriminantes. Or, jusqu’à présent, c’est en trouvant des preuves d’ententes que les autorités parviennent le plus souvent à démontrer des pratiques anticoncurrentielles. Trouver les moyens de prévenir la collusion entre les algorithmes d’apprentissage automatisé pourrait être l’un des plus grands défis que les responsables du droit de la concurrence n’aient jamais rencontrés, estime un récent rapport de l’OCDE (.pdf) sur le sujet.

Le principe même de ces systèmes de fixation des prix automatisés consiste à calculer automatiquement les prix sur la base d’évaluations instantanées de l’offre et de la demande, tout en prenant en compte les instructions des vendeurs comme les objectifs de profits ou les prix à pratiquer. Pour Terrel McSweeny, commissaire à la Commission fédérale du commerce américaine (FTC), « nous parlons d’une vitesse de prise de décision qui n’est pas vraiment humaine ». Or « tous les modèles économiques sont basés sur des incitations humaines et sur ce que nous pensons que des êtres humains rationnels feraient. Il est fort possible que toutes ces connaissances ne soient plus applicables dans ces nouveaux marchés ».

Les algorithmes tarifaires se déploient dans nombre de secteurs : après les marchés financiers, l’industrie aérienne et hôtelière, ils envahissent désormais le domaine de la vente au détail, du transport, de la santé, des biens de consommation. Le problème, comme le souligne le rapport de l’OCDE, c’est qu’il n’y a pas de base juridique pour attribuer la responsabilité d’un programme qui a appris à se coordonner avec d’autres machines pour ajuster ses prix. Les outils de régulation ne sont pas adaptés aux robots vendeurs et aux bots capables de fixer automatiquement les prix.

Comment prouver les pratiques anticoncurrentielles à l’heure de leur optimisation ?

En avril 2016, un rapport de la Maison-Blanche (.pdf) soulignait le risque de concentration sur les marchés émergents, comme les transports ou l’assurance, et pointait le besoin de nouvelles réglementations pour répondre aux préoccupations anti-concentration spécifique à l’économie numérique. En fait, la transparence des prix, dans certains contextes, peut faciliter des formes de collusion tacite entre programmes, estime le rapport. Les outils de tarification algorithmiques devraient, théoriquement – notamment parce qu’ils observent les prix des concurrents – aboutir à des prix plus bas et à un choix plus large pour les consommateurs. Mais ils peuvent être conçus explicitement pour faciliter la collusion ou un mouvement de prix parallèles à ceux des concurrents – ou trouver par eux-mêmes ce type d’optimum. John Salch, responsable de Pros, une entreprise qui produit des logiciels de tarification automatique, se veut rassurant : les stratégies de collusion ne sont certainement pas durables. Reste que ce discours rassurant n’est peut-être pas suffisant, tant les effets d’inhibition de la concurrence par des algorithmes sophistiqués s’annoncent difficiles à observer et à réguler.

Un rapport de la Chambre des lords a appelé la Commission européenne à mener des recherches supplémentaires sur les effets des algorithmes sur la concurrence. Pour Maurice Stucke et Ariel Ezrachi, qui ont étudié la question, le problème également c’est qu’on peut obtenir des résultats qui limitent la concurrence sans nécessairement que ces systèmes soient conçus dans ce sens. « Les algorithmes partagent l’information si rapidement que les consommateurs n’ont pas le temps de prendre conscience de la compétition ». La disponibilité et la transparence de l’information, caractéristiques de la théorie du marché libre, pourraient donc nuire aux consommateurs plus que les habiliter. C’est ce que pense un consommateur d’Uber, Spencer Meyer, qui a lancé une action en recours collectif contre Uber estimant que l’algorithme de fixation des prix est anticoncurrentiel, manipulant artificiellement l’offre et la demande et limitant la concurrence entre les chauffeurs.

L’automatisation permet de définir des stratégies tarifaires que les humains ne peuvent pas exécuter, rappelle le journaliste David J. Lynch. Si plusieurs concurrents adoptent la même technologie de fixation de prix et réagissent de la même façon aux évolutions des conditions du marché, le résultat serait le même que si les sociétés s’entendaient sur les prix estiment Maurice Stucke et Ariel Ezrachi, dans leur livre. Sans capacité à faillir, un cartel géré par une intelligence artificielle pourrait-il demain perdurer indéfiniment ?

Pour Salil Mehra, professeur à la Temple University, inventeur du terme de « robot-vendeurs », le risque est fort que les systèmes de fixation de prix se coordonnent entre eux, mais sans avoir ouvertement ou de manière délibérée ou explicite procéder à une entente, explique-t-il dans une récente étude. Or, cette nouvelle forme de collusion leur permet d’échapper à la régulation anticoncurrentielle, quand bien même ces coordinations aboutissent à des prix supracompétitifs qui nuisent aux consommateurs. Le problème, estime encore Salil Mehra, est que les autorités de régulation ont surtout tendance à chercher des preuves de collusion, ce qui sera bien plus difficile avec les systèmes d’apprentissage automatisés. Pour Salil Mehra, il est donc nécessaire de permettre à terme aux autorités, comme le FTC, de pouvoir enquêter et auditer les systèmes non seulement sur les questions de discrimination, mais également sur les effets de coordination tarifaire.

Les mirages de la compétition

En fait, il est tant de vérifier les promesses des marchés numériques : augmentent-ils vraiment le nombre de vendeurs, la transparence ? Diminuent-ils les barrières à l’entrée ?… Dans leur livre Maurice Stucke et Ariel Ezrachi pointent très bien ce qu’ils appellent les « mirages de la compétition » : outre la collusion, ils dénoncent le risque des discriminations comportementales et le « Frenemy », c’est-à-dire la dynamique de compétition et de coopération qui existe entre les plateformes et les applications indépendantes, qui s’entendent pour extraire des données des utilisateurs pour mieux les exploiter. Pour eux, le modèle hypercompétitif des startups que nous présente l’économie numérique relève plus d’une fable que d’une réalité, tant les ententes pour exploiter les données des utilisateurs pour construire des marchés sont finalement flagrantes.

« L’environnement de marché numérisé caractérisé par des capacités d’analyses, d’agrégation et de stockage des données inédites change le rôle et la signification de l’information ». A l’image de l’algorithme d’Uber qui détermine quand mettre en oeuvre un surcoût, pour quelles zones, pendant combien de temps et avec quelle ampleur, afin de maximiser le profit… d’Uber, dans un marché fermé dont il maîtrise tous les paramètres. L’acteur public n’est pas en reste, à l’image du système développé par la ville de San Francisco pour optimiser le prix de ses parkings et leur occupation.

Peut-on réguler une économie parfaitement planifiée ?

Pour Stucke et Ezrachi, ces exemples montrent comment la dynamique de compétition des marchés se transforme. Si d’un côté cela ouvre aux autorités des modalités pratiques qu’elles pourraient mobiliser, le risque est de nous conduire à terme à une économie parfaitement planifiée et optimisée par les systèmes automatisés – un paradoxe qui plaira certainement aux ultralibéraux qui imaginent ces plateformes comme des modèles de déréglementation. Si nous sommes encore loin d’une économie totalement plateformisée où toutes les données sont interreliées, reste que dans nombre de secteurs où la tarification automatisée entre en oeuvre, on pourrait assister à la naissance de marchés parfaitement contrôlés.

Pour les deux économistes, le problème est que les régulateurs n’ont pas les bons outils pour comprendre et prédire les nouvelles dynamiques des marchés automatisés. Ce qui est sûr, soulignent-ils, c’est qu’à mesure que les entreprises et les « super plateformes » collectent et analysent de plus en plus de données, la tarification algorithmique va progresser. Cela signifie que les autorités chargées de veiller à la concurrence doivent pouvoir voir les problèmes et avoir des outils pour les résoudre et savoir quand intervenir. Pour Stucke et Ezrachi, l’enjeu est de construire de nouveaux outils pour que les autorités de régulation puissent faire leur travail demain, pour qu’elles puissent mieux percevoir la distorsion des pratiques concurrentielles. Or, celles-ci ne sont pas si évidentes à voir : les transactions à haute fréquence, juste par la rapidité d’exécution, permettraient à ceux qui les opèrent de prélever l’équivalent de quelques 160 millions de dollars par jour, simplement en jouant des différences temporelles entre les passages d’ordre et leurs applications exactes estime le journaliste Michael Lewis dans son livre, Flash Boys.

Malgré ces nouvelles difficultés, les deux chercheurs estiment néanmoins que les règles anticoncurrentielles ne sont pas obsolètes, notamment parce qu’elles permettent aux autorités d’enquêter sur les pratiques pour mieux les comprendre. Dans les solutions qu’ils esquissent en conclusion de leur ouvrage, les chercheurs rappellent finalement des solutions que nombreux répètent depuis longtemps consistant à renforcer les pouvoirs des consommateurs et le respect de leurs données. Pour eux, l’asymétrie de la relation doit être combattue. Les utilisateurs doivent ainsi être informés des informations qui sont collectées sur eux et comment ils sont tracés, ils doivent savoir clairement quand les prix qui s’affichent sont personnalisés, ils doivent recevoir une information claire de ce que signifie le « meilleur prix » qui leur est affiché et ce que signifient les autres options qui leur sont proposées. Et dans le cas d’absence de disponibilité, l’information sur le sens de cette non-disponibilité doit aussi être claire et explicite.

Pour améliorer la protection des consommateurs, les auteurs proposent par exemple d’étendre la protection existante pour les mineurs en matière de vie privée en ligne (la Children’s online privacy protection act) à tous les utilisateurs et donc d’étendre le consentement préalable (opt int) ou la minimalisation de la collecte de données. Pour déstabiliser le risque de collusion automatisée, les autorités devraient promouvoir la concurrence, notamment par le développement de coopératives d’utilisateurs, sans esquisser concrètement comment soutenir ce développement. Enfin, si nous sommes habitués à considérer la transparence comme une condition de la concurrence, il faut peut-être trouver les moyens de nous défaire de cette idée. Peut-on imaginer développer des moyens pour rendre les marchés moins transparents en fournissant des capacités de remise sans recueil de données ou en limitant la vitesse ou le nombre d’ajustements des prix ? Enfin, les chercheurs se prononcent plutôt pour des autorités capables d’auditer les algorithmes, même s’ils en pointent des limites, notamment du fait qu’il soit difficile d’estimer quels types de données ces systèmes ne devraient pas prendre en compte. ‘ »Si les consommateurs étaient vraiment les maîtres des marchés, ils disposeraient de bien plus de produits qui protègent leur vie privée. Ils n’auraient pas à attendre des années pour avoir des bloqueurs de publicités pour leurs smartphones. (…) Si nous pensons que la discrimination comportementale est inique, alors les entreprises ne devraient pas pouvoir nous segmenter ou nous cibler comme elles le font avec le prix algorithmique. »

Si les deux économistes jettent des constats essentiels et à contre-courant, les solutions esquissées méritent encore d’être travaillées. Dans un domaine assez proche, celui de la régulation du trading haute fréquence, alors que nombre de spécialistes en appelaient à inventer de nouvelles formes de régulation comme le soulignaient Marc Lenglet et Angelo Riva en 2013 dans la Revue de la régulation, force est de constater que, pour l’instant, les autorités semblent avoir plutôt jeté l’éponge.

Il ne faudrait pas que nous en arrivions là.

Hubert Guillaud