Lancée à six mois de la présidentielle américaine, cette polémique est un grand classique, ingrédient indispensable à toute bonne campagne électorale: les publications de sites favorables à Donald Trump auraient été censurées par Facebook et Google, apparaissant moins fréquemment dans les fils d’actualité des utilisateurs du premier et dans les résultats de recherche du second. Les deux géants du numériques ont nié vigoureusement.

Accusés d’être les nouveaux faiseurs de rois, les algorithmes ont pourtant pris le pouvoir depuis longtemps. Google nous guide, Uber nous transporte, Facebook choisit nos amis, Tinder nos amants. L’algorithmie devient la main invisible de nos Etats, pour prévenir la criminalité, accorder des prêts immobiliers ou sélectionner les étudiants dans les universités. Jamais la prophétie du juriste Lawrence Lessig, «le code est la loi», n’aura été si juste.

Si les algorithmes sont un pouvoir comme un autre, les médias doivent-ils leur demander de rendre des comptes? «Il est désormais grand temps d’aller regarder sous le capot», exhortait Eric Scherer, responsable de la prospective à France Télévisions. «Alors que les utilisateurs peuvent être résignés à ces suzerains algorithmiques, les journalistes ne peuvent pas l’être», surenchérit la Columbia Journalism Review.

Explorer les «pensées intérieures» de la boîte noire

Mais comment soulever ce capot – très prosaïquement? Nick Diakopoulos est chercheur à l’Université de Maryland, auteur d’un rapport «Algorithmic Accountability» pour le Tow Center. Il explique: un algorithme fonctionne comme une boîte noire avec une entrée (votre requête, vos informations personnelles) et une sortie (un prix, une suggestion, un classement). «Vous ne pouvez pas voir ce qui se passe à l’intérieur. Mais si vous variez les entrées de différentes façons et si vous portez une attention particulière aux résultats en sortie, vous pouvez avoir une vision de la façon dont l’algorithme fonctionne. La boîte noire commence alors à dévoiler quelques secrets.» Ce procédé – l’ingénierie inversée – révèle les biais nichés dans la machine. «Les algorithmes peuvent faire des erreurs. Ils cachent leurs pensées intérieures derrière un vernis de complexité.»

Publiée en mai dernier, une effarante enquête du site américain ProPublica dénonçait ainsi le biais raciste d’un logiciel d’aide à la décision pour les juges, en œuvre dans de nombreux tribunaux locaux. Gorgé de statistiques, cet algorithme prédictif attribuait une note en fonction du risque de récidive, qui permettait au magistrat de statuer sur une possible remise en liberté. L’enquête révélait à quel point le risque de récidive d’un Afro-Américain était largement surévalué, comparé à un Blanc disposant d’un casier judiciaire similaire. «Seules 20% des personnes dont le programme estimait qu’elles commettraient un crime violent l’ont fait. Sur l’ensemble des crimes et délits, comme la conduite sans permis, le logiciel s’est révélé légèrement plus efficace qu’un pile ou face», ironisaient les journalistes.

Les algorithmes peuvent faire des erreurs. Ils cachent leurs pensées intérieures derrière un vernis de complexité

Utilisant la même méthode décrite par Nick Diakopoulos, le Wall Street Journal avait lui analysé la politique de prix de plusieurs sites en ligne. Le quotidien économique montrait comment la tarification algorithmique, fixée selon la distance du client par rapport au magasin d’un concurrent, participait à rendre des prix plus élevés dans les zones rurales. Et à augmenter les inégalités.

L’humain derrière le code

Au sein des rédactions, ce type d’enquête est encore peu fréquent. Ce travail nécessite des compétences rares, sans parler du temps d’enquête, denrée encore plus précieuse. Seul l’accès au code source de l’algorithme permettrait une connaissance exacte du système, chose quasi impossible puisque couverte par le secret commercial.

Quant aux journalistes, ils ne doivent seulement soulever le capot, mais comprendre qui a conçu le moteur, «creuser plus profondément sur les intentions de conception derrière les algorithmes», poursuit Nick Diakopoulos. Les biais et les préjugés – raciaux dans l’enquête de ProPublica – ont été inculqués par des esprits humains. Ces derniers se défaussent pourtant volontiers sur «l’objectivité» supposée de leurs algorithmes. C’est la rhétorique des dirigeants d’Uber, lorsqu’ils sont accusés de distorsion de concurrence sur le marché du transport urbain.

Rien n’est moins vrai. Le Daily Beast a mis à jour, en testant des milliers de mots, la censure existante sur le correcteur automatique de l’iPhone où les termes «avortement» et «viol» n’avaient pas le droit de cité. L’histoire peut paraître anecdotique: elle offre pourtant un éclairage révélateur sur une entreprise très moraliste, Apple, connue pour manier la censure sans trop de mesure.