Le réseau social a mis en place la notation de ses utilisateurs en fonction de leur fiabilité. Une démarche qui s'inscrit à la fois dans un contexte de lutte contre la désinformation, ainsi que d'une campagne de communication à l'approche des élections américaines de novembre.

Pour détecter les tricheurs en matière de désinformation, Facebook s'en remet à la méthode de la notation. Le réseau social a ainsi mis en place un processus qui établit un score de fiabilité des utilisateurs, situé entre zéro et un, lorsque ceux-ci signalent des fausses informations. Ce système, révélé par le Washington Post, est calculé en fonction du comportement des utilisateurs qui signalent les contenus qu'ils estiment faux: si un utilisateur signale une fausse information, mais que celle-ci a été validée comme étant vraie par les vérificateurs officiels de Facebook, il est alors considéré comme «moins fiable» et récupère un zéro pointé.

«La raison pour laquelle nous faisons cela repose sur le fait de nous assurer que notre lutte contre la désinformation est aussi efficace que possible», explique Facebook, qui a également publié un démenti de l'article du Washington Post, le jugeant «trompeur». Le réseau social assure ainsi qu'il n'y a pas de système de notation global des utilisateurs. Seuls les auteurs de signalement sont ainsi concernés.

Lutte contre la désinformation

La rétroaction des utilisateurs est l'un des nombreux indicateurs qu'utilise Facebook pour faire le tri parmi les millions de contenus postés chaque jour sur ses pages: cela passe notamment par le signalement des contenus directement via un bouton ad hoc, ou bien l'envoi de mails aux équipes d'assistance. Depuis début 2018, Facebook a aussi déployé un nouveau dispositif de sondage des utilisateurs, interrogés sur leur connaissance d'une liste de médias et sur la confiance qu'ils leur accordent. Des questions du type: «Connaissez-vous ces sites Internet?» ; «Quel degré de confiance leur accordez-vous?» leur sont ainsi posées et les réponses peuvent altérer ou non leur fil d'actualité.

En coulisses, ces retours sont traités par un algorithme d'apprentissage automatique, c'est-à-dire une formule mathématique capable de tirer des conclusions des liens qu'on lui soumet pour «prédire» qu'un contenu posté à l'avenir pourra être sujet à précaution et donc éviter sa propagation rapide. En réalité, il s'agit plutôt d'un calcul de probabilité, fondé par exemple sur l'emploi récurrent de certains termes associés comme «Trump» et «reptilien», ou la détection d'une image retouchée.

Opacité du système

Ce système fonctionnerait bien si chaque utilisateur était bien intentionné, mais comme le précise Facebook, «il n'est pas rare que les gens nous disent que quelque chose est faux simplement parce qu'ils ne sont pas d'accord ou ciblent un éditeur particulier». Alors que le réseau social a fait l'objet de campagnes de désinformations massives, cette notation des auteurs de signalements est donc une mesure de précaution pour éviter que son système se fasse également hacker. Elle est également tenue secrète afin d'éviter que des utilisateurs mal intentionnés n'apprennent à la détourner.

Néanmoins, cette mesure est mal accueillie. Les internautes ne peuvent pas être au courant de leur score ou de celui des autres, ni de ce qui le motive. Ce voile d'opacité contribue à alimenter les soupçons sur l'objectivité de Facebook. Le réseau social a ainsi été directement accusé par Donald Trump de vouloir censurer les commentaires de l'ultra-droite depuis qu'il a exclu l'influent Alex Jones de sa plateforme. Suivi par des millions d'Américains à travers son site «InfoWars», Alex Jones publie régulièrement des contenus complotistes, comme l'idée selon laquelle le massacre de Sandy Hooks aurait été monté de toutes pièces et que les parents en deuil auraient menti. Pour l'instant, Facebook s'est pour une fois fait «l'arbitre de la vérité» en censurant la propagation de contenus qui ont conduit plusieurs familles à être harcelées en plein deuil. Mais son dispositif pourrait aisément être détourné selon la vision différenciée de ce qui relève ou non de la vérité.

À l'approche des élections américaines de novembre, le réseau social doit aussi montrer patte blanche sur la façon dont il entend endiguer les phénomènes de manipulation de l'opinion sur ses pages. Le 5 septembre prochain, des représentants de Facebook, Twitter et Google seront entendus par le Comité d'intelligence du Sénat afin de prouver qu'ils ont bien pris les mesures nécessaires pour éviter d'accentuer les menaces qui pèsent sur le fonctionnement démocratique américain.