Dans son livre La nouvelle servitude volontaire, Philippe Vion-Dury démontre comment, progressivement, chacun délègue son libre-arbitre aux algorithmes. Pour l'auteur, il est temps d'acquérir un réflexe critique.

"Les entreprises de technologies n'ont de cesse de se présenter comme les sauveurs du monde", écrit Philippe Vion-Dury. Mais l'enfer est pavé de bonne intentions. Pour l'essayiste, auteur de La nouvelle servitude volontaire publié mercredi (aux éditions FYP), les entreprises de la Silicon Valley sont porteuses d'un véritable projet politique.

Leurs algorithmes mettent sous leur coupe ceux qui s'y soumettent, volontairement. Aveuglant les consommateurs et les Etats par l'éclat de leur spectaculaire réussite économique, ces entreprises sont en train d'accumuler des sommes incalculables de données, grâce auxquelles elles ambitionnent de tout mesurer, tout contrôler, tout prévoir. Ou quand les mathématiques deviennent totalitaires.

Il est très difficile aujourd'hui de critiquer la Silicon Valley, qui se présente comme le "sauveur du monde". Cependant vous affirmez que la réalité de ces multinationales est "bien plus crue". Quelle est-elle?

[Offre limitée] Spécial rentrée. 1€ par mois

Je m'abonne

Il est très compliqué de s'opposer à la logique de progrès de ces entreprises sans passer pour un réactionnaire. Les ingénieurs de la Silicon Valley portent l'idée que leurs technologies peuvent résoudre tous les problèmes. Evgeny Morozov parle de "solutionnisme".

La Silicon Valley, c'est la culture protestante évangélique de l'Amérique: l'homme est le maître de la Création et ses outils ont pour mission divine de transformer la Terre en paradis. Mais derrière l'apparence salvatrice, il existe des enjeux plus pragmatiques et prédateurs de domination de marché.

La masse de données que ces entreprises collectent sur leurs utilisateurs est pour vous la porte ouverte aux manipulations. C'est particulièrement préoccupant, en période d'élections. Il suffit de constater le pic d'inscriptions sur les listes électorales aux Etats-Unis provoqué par un simple rappel de Facebook.

Derrière, Facebook étudie comment on peut créer des comportements chez les gens. En 2012 il avait mené une expérience psychologique en changeant le fil d'actualités de 690 000 personnes sans les en avertir. Cette année, on a découvert son pouvoir d'influence avec le scandale autour de son module d'actualités.

Le chercheur Robert Epstein a montré que dans un pays où un moteur de recherche est quasi en situation de monopole, des résultats de recherche biaisés pourraient influencer sensiblement une élection.

Certains détails sont révélateurs, comme lorsque vous soulignez que Microsoft est le deuxième employeur des anthropologues aux Etats-Unis.

Pour les GAFA, l'homme devient le produit. Ces postes deviennent clés, surtout avec le développement de l'intelligence artificielle. Un des domaines de recherche est l'écologie de l'attention. Actuellement, des équipes avec des moyens énormes travaillent sur quelque chose qui paraît tout bête: les notifications. Le but est de créer des comportements addictifs et des accoutumances, pour ramener les utilisateurs dans l'enceinte des applications.

Vous décrivez les modèles prédictifs, utilisés notamment par les assurances, comme des outils de normalisation et de surveillance. N'est-ce pas culpabilisant?

La culpabilité marche de pair avec le néolibéralisme. On doit intérioriser les objectifs de son entreprise, et quand on ne les remplit pas, on se sent coupable. Si on ne fait pas son jogging un jour sur deux et qu'on mange trop gras, un bracelet connecté va se charger de nous culpabiliser.

On est passé d'un pouvoir de type patriarcal avec des interdits à un pouvoir plus soft et pernicieux, visant à obtenir des gens qu'ils s'adaptent à certaines normes. C'est ce que j'appelle Big Mother.

Derrière la transparence, y-a-t-il forcément la surveillance?

Ce n'est pas tant la transparence qui est problématique que son asymétrie. Plus les individus deviennent transparents, plus les instances de pouvoir - les entreprises - deviennent opaques. Personne ne peut forcer Google à révéler comment fonctionne son algorithme. Les Etats eux-mêmes sont plus transparents.

Ainsi, en France, la Commission d'accès aux documents administratifs a recommandé en septembre que l'Education nationale dévoile le code source d'Admission post-bac (APB).

Vous parlez de "servitude volontaire". Mais a-t-on encore le choix?

On a l'illusion d'avoir le choix. Au début de l'automobile, les gens n'en voulaient pas, ils trouvaient cela bruyant. Et puis, peu à peu, les villes se sont construites autour de la voiture, les passants ont été relégués sur des trottoirs. La voiture s'est imposée à tous.

Aujourd'hui, si on refuse ces technologies, si on utilise pas Facebook, Tinder, etc., on risque de se couper du lien social.

Vous évoquez "l'ambition totalisante" des approches prédictives et probabilistes, qui colonisent tous les domaines. "Totalisante", c'est pour éviter de dire "totalitaire"?

L'esprit porté par ces entreprises de la Silicon Valley est pour moi totalitaire, mais pas les entreprises elles-mêmes. Seul un Etat peut devenir totalitaire. Là où cela devient vraiment inquiétant, c'est quand ces pratiques touchent l'Etat lui-même, par exemple via des algorithmes prédictifs à la Minority Report pour prévenir la criminalité.

La logique de "scoring" fait que nous avons tous des notes un peu partout qui nous définissent en termes de potentiel et de risque. Vous expliquez que cette approche individualisée tend à légitimer les inégalités.

Kate Crawford, qui travaille chez Microsoft et au MIT, a montré par A+B que les algorithmes sont un moyen de perpétuation des inégalités sociales. Les algorithmes ne sont pas neutres comme on veut nous le faire croire. Ce qui est inquiétant, c'est que de plus en plus de services publics utilisent ces techniques-là. Comme Pôle Emploi par exemple, qui veut s'en servir pour réduire le chômage.

Pourquoi pensez-vous que les politiques s'en remettent aux algorithmes?

Il existe une alliance de fait entre la volonté des entreprises de la Silicon Valley de prendre en main des services qui appartiennent au collectif, et la volonté des politiques de s'en décharger. Remplacer des conseillers Pôle Emploi ou des policiers par des algorithmes quand les caisses sont vides, c'est de l'opportunisme.

C'est aussi la question du vide de la pensée politique, qui n'a plus d'autre idéologie que le libéralisme. On en arrive à un idéal d'administration de toutes choses. On fait appel à une classe de gestionnaires.