Facebook est régulièrement épinglé pour sa politique de modération. Richard Drew / AP

Facebook continue son opération transparence. Le réseau social américain organise, mardi 15 mai, à Paris, son premier « Content summit », un événement destiné à présenter et débattre de ses règles de modération. Il y a de quoi faire : de la nudité aux contenus djihadistes en passant par les faux comptes ou les discours de haine, la question de ce qui est autorisé ou non aux 2,2 milliards de ses utilisateurs est l’objet d’âpres et lancinantes discussions.

L’entreprise de Menlo Park, en Californie, profite de ce sommet pour publier, mardi, un rapport contenant des statistiques sur les publications qu’elle estime contrevenir à ses règles et leur place réelle dans le flot de contenus publiés. Une première. « Ces chiffres vont aider les gens à comprendre ce qu’est l’expérience typique de Facebook », veut croire Monika Bickert, directrice de la politique de contenus du réseau social dans un entretien au Monde.

On y apprend que la propagande djihadiste – Facebook est régulièrement accusé de laxisme à ce sujet – est très peu consultée par rapport aux autres contenus problématiques ; que le spam représente le gros des violations des règles de Facebook, et que les outils de détection automatique, notamment l’intelligence artificielle, déterminent de plus en plus ce qui peut y être posté ou non.

Lire notre entretien avec Monika Bickert : « Ce n’est pas parce que quelque chose est offensant qu’il est contraire aux règles de Facebook »

Violence

Selon les mesures effectuées par l’entreprise sur la base d’un échantillon de l’activité des utilisateurs, sur mille consultations (par les utilisateurs) de contenus publiés (texte, image, vidéos, liens, vidéos en direct), 2,5 relevaient de la « violence évidente » au premier trimestre 2018, en légère augmentation par rapport au précédent trimestre (1,8).

Au total, le réseau social a retiré ou limité la diffusion de 3,4 millions de contenus relevant de cette catégorie. C’est bien plus que lors des trois mois précédents (1,2 million), une augmentation que Facebook explique essentiellement par le déploiement de nouveaux outils de reconnaissance automatiques. La très grande majorité (85,4 %) de ces contenus a été repérée avant même qu’un utilisateur ne le signale au réseau social.

Nudité

Sur mille visionnages de contenus par les utilisateurs de Facebook, sept concernaient des contenus sexuels ou de nus que Facebook estime ne pas être compatibles avec ses règles. De manière générale, Facebook dit tolérer la nudité lorsqu’elle est à visée politique ou artistique. C’est la règle qui fait le plus débat, car les sensibilités sur cette question au sein des 2,2 milliards d’utilisateurs varient considérablement.

L’entreprise dit avoir supprimé ou limité la diffusion de 21 millions de contenus de nu ou sexuel contraires à ses règles : 95 % d’entre eux avant même qu’ils ne soient signalés par un utilisateur de Facebook.

Ces statistiques, explique Facebook, ne concernent pas les cas les plus graves de nudité, comme la pédopornographie ou la « promotion de la violence sexuelle ».

Terrorisme

Facebook est régulièrement accusé d’être un lieu privilégié de propagande et de recrutement terroriste. Actuellement, les seules statistiques dont dispose l’entreprise concernent Al-Qaida, l’organisation Etat islamique (EI) et leurs affiliés : c’est en effet contre ces mouvances djihadistes que se concentre l’essentiel de ses efforts, même si, précise Facebook, l’interdiction stricte de toute propagande « couvre toutes les organisations terroristes ».

La place de cette propagande est bien moindre que celle des autres contenus contraires à ses règles internes, explique-t-elle. L’entreprise donne des chiffres concernant le nombre de contenus djihadistes qu’elle a supprimés au premier trimestre : 1,9 million. Ce chiffre est en nette augmentation (73 %) par rapport aux trois mois précédents. Une augmentation attribuée à la fois au perfectionnement de ses outils de détection automatiques, mais aussi, et c’est notable, à l’augmentation de la propagande djihadiste.

La quasi-totalité de ces contenus (99,5 %) ont été retirés avant même qu’ils ne soient signalés à Facebook. Un point qu’a tout intérêt à mettre en avant le réseau social : les exécutifs de plusieurs pays européens, dont la France, réclament à l’entreprise d’être plus proactive en la matière.

Lire (en édition abonnés) : Bruxelles presse les géants du Web de mieux lutter contre les contenus illicites

Discours haineux

L’entreprise définit le discours haineux comme toute « attaque directe sur les gens » basée sur certaines « caractéristiques » (« race, ethnicité, nationalité, affiliation religieuse, orientation sexuelle, sexe, genre, handicap ou maladie »). Contrairement à d’autres types de contenus, Facebook ne dévoile pas la fréquence à laquelle ils sont consultés mais affirme avoir supprimé 2,5 millions d’entre eux au premier trimestre 2018, en augmentation de 56 % par rapport au trimestre précédent.

Seuls 38 % de ces contenus supprimés ont été détectés par Facebook sans intervention des utilisateurs, un pourcentage qui s’explique par la nature des contenus difficiles à repérer par des systèmes de reconnaissance automatiques.

Spam

C’est le spam (contenu publié par des robots) qui représente le gros des contenus que Facebook estime ne pas avoir sa place sur la plateforme ; au premier trimestre 2018, 837 millions de contenus ont été supprimés, dont la quasi-totalité avant qu’ils ne soient signalés comme tels aux équipes de l’entreprise.

Facebook s’attarde en particulier sur les faux comptes, qui peuvent être destinés à usurper l’identité d’un tiers, mais qui sont surtout créés et utilisés de manière plus ou moins robotisée (pour booster la popularité d’une page Facebook ou d’un contenu). Ces comptes représentent 3 % à 4 % des comptes actifs.

Le volume de faux comptes supprimés par l’entreprise donne le vertige : 583 millions au premier trimestre (sur 2,2 milliards d’utilisateurs). D’autant que le réseau social précise que ne figurent pas dans ce chiffre les comptes dont la création est bloquée automatiquement, ce qui représente, dixit Facebook, plusieurs millions de comptes par jour.

Pourquoi publier ces statistiques ?

Facebook, comme d’autres géants de la Silicon Valley, fait face depuis plusieurs mois à des vagues de critiques. Si le scandale a récemment porté, avec l’affaire Cambridge Analytica, sur la question des données personnelles, celle de la modération des contenus est particulièrement sensible pour Facebook et ses deux milliards d’utilisateurs. La modération de Facebook est souvent jugée incompréhensible, trop lente, trop sévère ou trop laxiste.

« Nous voulons donner aux gens un meilleur aperçu de la manière dont nous gérons les contenus et dont nous appliquons les règles, assure Monika Bickert. Nous savons qu’il y a une soif d’informations à ce sujet. »

Certains éléments manquent pourtant à ce rapport, comme la durée pendant laquelle les contenus non repérés par Facebook mais signalés comme problématiques par ses utilisateurs restent en ligne, ou la proportion des contenus signalés par les internautes que le réseau social décide de maintenir en ligne.

Après la publication de ce rapport et quelques semaines après avoir publié les consignes données à ses équipes de modération, l’entreprise prévoit de les actualiser très régulièrement. « Nous allons mettre à jour nos règles beaucoup plus régulièrement, sans doute une fois par mois », explique ainsi Mme Bickert.

Facebook reste cependant très flou sur l’identité, la localisation et le bagage des équipes de modération (7 500 personnes selon le réseau social). L’entreprise est aussi extrêmement discrète quant à la relation contractuelle qui l’unit à ces travailleurs chargés d’encadrer la liberté d’expression de 2,2 milliards de personnes.