Ce texte est une contribution à la «Déclaration sur l’information et la démocratie» que prépare Reporters sans frontières.

Le 4 septembre, Mark Zuckerberg a publié sur le Washington Post une tribune intitulée «Protéger la démocratie est une course aux armements. Voici comment Facebook peut nous y aider». Dix jours plus tard c’est sur sa plateforme qu’il annonce «se préparer pour les élections» : il liste les risques, les biais, les détournements, les logiques d’influence et de manipulations qui ont déjà mis en danger l’équilibre démocratique et l’organisation de scrutins. Et il annonce, une fois de plus, qu’il va essayer de corriger tout cela. Il n’y parviendra pas.

Comment avons-nous pu nous retrouver au début du XXIe siècle dans une situation où Mark Zuckerberg – et quelques autres patrons de plateformes numériques – se fixent comme objectif récurrent de «protéger la démocratie», principalement à grands coups «d’algorithmes» et «d’intelligence artificielle» et affirment que cela sera une de leurs principales «missions» au sein de leur entreprise et à l’échelle du monde ?

En 2011, deux théoriciens de l’intelligence artificielle traitant des problèmes éthiques qu’allaient poser les algorithmes écrivaient que «les algorithmes de plus en plus complexes de prise de décision sont à la fois souhaitables et inévitables, tant qu’ils restent transparents à l’inspection, prévisibles pour ceux qu’ils gouvernent, et robustes contre toute manipulation» (Bostrom et Yudowski, «The Ethics of Artificial Intelligence»).

Comportement imprévisible

Aujourd’hui, «les algorithmes» dont nous parlons se déploient au sein d’architectures techniques toxiques englobant des millions ou des milliards d’utilisateurs.

Aujourd’hui, «les algorithmes» dont nous parlons reposent sur des jeux de données propriétaires et donc totalement opaques.

Aujourd’hui, «les algorithmes» dont nous parlons sont explicitement développés pour se doter d’un niveau d’autonomie (ou «d’apprentissage») qui rend leur «comportement» et leurs décisions souvent imprévisibles pour leurs créateurs eux-mêmes.

Aujourd’hui, «les algorithmes» dont nous parlons interagissent en permanence avec d’autres algorithmes, d’autres jeux de données et d’autres architectures techniques toxiques ; et ils le font à des échelles toujours plus vastes et dans des environnements toujours plus contraints qui augmentent encore le niveau de risque et d’incertitude.

Voilà pourquoi, pour l’ensemble de ces raisons, il est absolument impossible de garantir qu’ils soient transparents à l’inspection, prévisibles pour ceux qu’ils gouvernent et qu’ils soient, surtout, robustes contre toute manipulation.

Menace

Pendant les dix dernières années, le combat principal d’activistes, de journalistes, de défenseurs des libertés numériques fut celui visant à limiter l’impact de l’empreinte algorithmique sur nos vies privées et intimes. Ce combat-là est terminé, obsolète et, pour l’essentiel, perdu. C’est un autre combat qu’il nous faut aujourd’hui mener, sur un tout autre front, avec une tout autre urgence et à une tout autre échelle. C’est le combat pour limiter l’impact de l’empreinte algorithmique décisionnelle sur notre vie publique, sur nos infrastructures sociales communes et sur notre destin collectif.

Il est urgent et impératif que toute forme, ambition ou projet de gouvernance algorithmique, dès lors qu’il touche à des secteurs régaliens (transport, éducation, santé, justice, sécurité) soit, obligatoirement et par contrainte législative, développé sur le modèle des licences GNU GPL du logiciel libre pour garantir a minima l’auditabilité complète et pérenne des processus à l’œuvre.

Il est urgent et impératif que le développement d’un modèle universel de portabilité de l’ensemble de nos données (1) soit une priorité des Etats, et qu’il soit imposé à l’ensemble des acteurs du monde économique en lien avec la conservation ou le dépôt de données numériques, et ce quels qu’en soient la nature, le volume et l’usage.

Il est urgent et impératif que les entreprises qui captent aujourd’hui l’essentiel des données et des flux numériques (en gros les Gafam, Natu et autres Batx) soient taxées à la hauteur réelle de leur volume d’affaire et que cet impôt finance directement les actions précitées, ce processus de redistribution devant impérativement rester hors du contrôle desdites sociétés. Car le processus inverse a déjà commencé, celui dans lequel quelques entreprises omnipotentes s’arrogent le droit de défier la puissance publique et l’intérêt général dans la levée de l’impôt, comme Amazon et Starbucks en ont encore récemment fait la démonstration à Seattle.

Il est urgent et impératif qu’un régime de communs informationnels soit défini positivement dans la loi et qu’il puisse inclure les algorithmes et le code mobilisables dans le cadre de toute action publique.

Enfin, il est urgent, impératif et vital que tout ce qui touche directement au processus démocratique (comme le vote, l’élection, le processus de dépouillement) soit sine die placé hors de portée de toute forme d’assistance, de guidance ou de suppléance algorithmique (à commencer par les «machines à voter»). Le «vote électronique» doit être considéré pour ce qu’il est : une menace rigoureusement et définitivement incompatible avec le respect de la confidentialité du vote et donc de la démocratie.

Corps social

L’enjeu est de savoir si nous serons capables à très court terme de construire une alternative qui, après le temps numérique de la «désintermédiation» des vingt dernières années, sera celle de formes de remédiations algorithmiques respectueuses du corps social et partant de sa partie la plus fragile, la plus pauvre, et la plus exposée. Alors peut-être, et alors seulement, les questions de gouvernance algorithmique pourront commencer d’être envisagées sereinement.

Hors l’ensemble de ces conditions, nous allons offrir aux générations futures un monde dans lequel le principal problème ne sera pas que Mark Zuckerberg et quelques autres patrons d’industrie se piquent d’être les gardiens protecteurs de nos démocraties mais qu’ils soient effectivement les seuls encore en position de l’être, tout en n’ayant eux-mêmes qu’une idée très vague et très approximative de la manière de s’y prendre et des chances d’y parvenir.

Il ne s’agit pas simplement de fake news et de libre arbitre. Il ne s’agit pas simplement de la liberté de l’information ou de la liberté de la presse. Il ne s’agit pas simplement d’algorithmes, de plateformes, d’Etats et de nations. Il ne s’agit pas simplement d’intelligences humaines et d’autres «artificielles». Il s’agit de la liberté des peuples. Il s’agit de la liberté tout court.

(1) le projet Solid porté par Tim Berners Lee pourrait en être une première approche.

Olivier Ertszcheid est l’auteur de l’Appétit des géants (2017, C&F éditions).