Facebook est régulièrement critiqué pour ses choix de modération. KAREN BLEIER / AFP

Ce sont des documents rares que le Guardian a obtenus et dont il a publié une partie dimanche 21 mai. Quelques mois après la Süddeutsche Zeitung, le journal britannique a mis la main sur une centaine de documents internes détaillant la politique de modération de Facebook, dont des manuels de formation très précis destinés aux modérateurs.

Le réseau social, qui compte près de 2 milliards d’utilisateurs actifs, affiche publiquement les règles en vigueur sur sa plate-forme, indiquant ce que les internautes ont le droit d’y publier ou non. Mais il s’agit de grandes lignes, très imprécises, et les documents dévoilés par le Guardian fournissent, quant à eux, des exemples très précis, permettant de mieux comprendre les arbitrages parfois obscurs de Facebook, régulièrement critiqués.

Le réseau social a par exemple été vilipendé en septembre 2016 pour avoir supprimé la célèbre photographie de la « fillette au napalm » – un cliché de la guerre du Vietnam présent dans les livres d’histoire, mais qui montre une petite fille nue, ce qui enfreint les règles du site.

Pourquoi cette photo est-elle supprimée, mais pas des vidéos de l’organisation Etat islamique ? Ce sont les reproches régulièrement faits à Facebook, et les documents du Guardian permettent d’y voir plus clair sur sa façon de gérer les innombrables publications que les modérateurs doivent examiner chaque jour.

Pour être supprimée, une menace doit être « crédible »

Ainsi, écrire « Que quelqu’un tire sur Trump » est interdit, mais pas « Allez vous faire foutre et allez crever », ou encore « Pour briser le cou d’une pétasse, faites en sorte de bien appuyer au milieu de la gorge ». Ces deux dernières phrases, jugées trop vagues, ne sont pas considérées comme des menaces crédibles. La première phrase, celle qui évoque Donald Trump, est plus précise, et elle concerne, qui plus est, une catégorie de personnalités protégées – qui inclut, en plus des chefs d’Etat, des militants, des journalistes, des personnes dont le nom est inscrit sur la liste des gens à abattre par certaines organisations « dangereuses et interdites », ou encore des personnes qui ont subi des tentatives d’assassinat.

Mais les nuances sont souvent subtiles. Comment déterminer si une menace est crédible ou non ? Dans un document, Facebook fournit des éléments : si une heure, une date ou des précisions sur la méthode sont indiquées, cela rend la menace crédible. Si celle-ci vise « des nations, gouvernements, organisations ou des endroits plus grands qu’un village », alors la menace est jugée moins crédible. Tout comme celles qui concernent « des crimes que Facebook reconnaît ». Ainsi, « Pendez les pédophiles » n’est pas considéré comme crédible.

Le réseau social détaille bien d’autres phénomènes que la menace. Les vidéos montrant des morts violentes, par exemple, ne sont pas systématiquement bannies. Selon ces documents, elles peuvent « avoir de la valeur pour sensibiliser les gens sur le suicide, les maladies mentales ou les crimes de guerre, et d’autres problèmes importants ».

Le contexte est un élément important pour déterminer si un contenu violent doit être supprimé ou non : une image violente à l’égard d’un humain doit être supprimée si elle contient « un commentaire sadique » et « célèbre la violence ». Mais pour Facebook, « soutenir la peine de mort » ou « se réjouir d’une peine violente (peine de mort) » n’est pas célébrer la violence. Certaines images, bien qu’autorisées, pourront toutefois être marquées comme « dérangeantes » par les modérateurs – ce qui signifie qu’elles ne s’afficheront pas directement dans le flux d’actualité des internautes et seront accompagnées d’un avertissement.

La violence contre les animaux autorisée

Une partie de ces documents est aussi consacrée à la violence à l’encontre des enfants – hors violence sexuelle. « Nous autorisons les “preuves” de violence envers des enfants afin de pouvoir identifier et aider l’enfant », peut-on lire dans ces documents. Ces images sont marquées comme « dérangeantes » et sont supprimées si elles sont accompagnées de commentaires sadiques.

Facebook précise aussi les règles concernant la cruauté envers les animaux. Là aussi, les images sont autorisées s’il s’agit de sensibiliser – ce qui permet à des associations de défense des animaux, comme L214, de diffuser des vidéos choquantes d’abattoirs. Si « généralement, les images de violence à l’égard des animaux peuvent être partagées », les plus violentes doivent être marquées comme « dérangeantes » et celles accompagnées de commentaires sadiques sont supprimées.

Facebook tient à préciser que si la mutilation d’un animal peut être considérée comme « dérangeante », il existe des « exceptions notables » comme « la pêche et la chasse », mais aussi « la préparation culinaire ». En revanche, Facebook l’écrit noir sur blanc : l’image d’un humain battant un animal sera « ignorée ».

Dans ces documents, Facebook s’intéresse aussi à la diffusion de suicides et autres comportements autodestructeurs en direct. Depuis le lancement de Facebook Live, en 2016, plusieurs personnes ont mis fin à leurs jours, en vidéo et en direct sur la plate-forme. L’entreprise le dit clairement : elle n’empêchera pas à ces utilisateurs de diffuser ce type de scènes parce qu’elle « ne veut pas censurer ou punir des personnes en détresse qui tentent de se suicider ». Mais elle précise que la vidéo sera supprimée « une fois qu’il n’y aura plus de possibilité d’aider la personne » – à moins que la vidéo n’ait une valeur informative. Une décision prise, selon ces documents, en accord avec les avis d’experts.

Frontières ténues

Facebook détaille aussi ce qui est autorisé en termes de sexualité, de façon très précise, avec des sous-catégories telles que « sex toys », « tétons », « sperme », « oral », « pénétration »… On apprend qu’il est autorisé de montrer des images sexuellement « modérées », comme « des baisers bouche ouverte, du sexe simulé en habits et les activités sexuelles pixelisées ».

Concernant la nudité, si Facebook ne l’autorise pas pour les enfants, elle le permet pour les bébés (définis comme des enfants ne tenant pas debout), à condition qu’il ne s’agisse pas d’un gros plan. La nudité est aussi censée être acceptée dans les œuvres « faites à la main », mais pas « numériquement ». Par ailleurs, ces documents nous apprennent aussi qu’en un mois, Facebook doit gérer 54 000 cas de revenge porn (quand un internaute publie des photographies avec une personne dénudée sans son consentement) ou de sextortion (chantage).

Ces exemples très pointus montrent à quel point la frontière est ténue entre un contenu acceptable, selon Facebook, et un contenu qui doit être rejeté. Mais ces documents sont parfois confus pour les modérateurs, qui peinent à prendre leurs décisions, assure le Guardian.

Pour illustrer la difficulté du travail des modérateurs, qui doivent gérer des milliers de contenus en un temps record, le journal a publié un quiz pour mettre les internautes dans cette situation délicate : laissez-vous passer un dessin représentant Oussama Ben Laden ? Une image de Donald Trump affublé d’une moustache apposée sur une croix gammée ? La photographie d’un cadavre ?

Facebook sous pression

L’équipe de modération, composée de 4 500 personnes, selon le fondateur de Facebook Mark Zuckerberg – qui a annoncé au début de mai l’embauche de 3 000 personnes supplémentaires –, ne scrute pas tous les contenus publiés sur le réseau social. Ils se consacrent aux publications signalées comme problématiques par les internautes, et décident de les ignorer, de les supprimer, ou, quand le cas leur paraît trop complexe, de les transmettre à un supérieur. Ils peuvent aussi envoyer automatiquement un message aux internautes ayant publié des contenus jugés cruels pour leur demander d’envisager de les supprimer, rapporte le Guardian.

« Les gens ont des idées très différentes sur ce qu’il est acceptable de partager, explique au journal britannique Monika Bickert, directrice de la politique de gestion des contenus de Facebook. Où que vous traciez la ligne, il y aura toujours des zones grises. Par exemple, la différence entre la satire, l’humour et le contenu inapproprié est très grise. C’est très difficile de décider ce qui a sa place sur le site ou non. »

La question de la modération des contenus est très sensible chez Facebook, débordé par la masse de contenus à examiner chaque jour, et dont les faux pas sont fréquents. La culture du secret prédomine à ce sujet : si la firme américaine donne de plus en plus de précisions sur ce qui est acceptable ou non sur sa plate-forme, elle avait toujours refusé, jusqu’à récemment, de révéler le moindre détail sur son équipe de modération.

On sait désormais qu’elle s’établit à 4 500 personnes, bientôt 7 500, mais Facebook reste encore muet sur les détails : s’agira-t-il de salariés de Facebook ? De sous-traitants ? Quel est leur profil ? Travailleront-ils à temps plein ? Dans quelles conditions ? La question de leur condition psychologique se pose aussi, étant donné la nature des contenus auxquels ils sont exposés en permanence.

Quoi qu’il en soit, la pression s’accentue considérablement sur Facebook. Après avoir démontré des manquements dans la modération, l’Allemagne étudie actuellement un projet de loi permettant d’infliger aux réseaux sociaux des amendes pouvant aller jusqu’à 50 millions d’euros si des contenus illicites ne sont pas supprimés dans les vingt-quatre heures.

Facebook : la modération est une tâche « difficile » « Ces articles et les documents de formation publiés avec montrent à quel point il peut être difficile d’identifier ce qui est nocif. » Dans une tribune, publiée lundi 22 mai dans le quotidien britannique The Guardian, Monika Bickert, directrice de la politique de gestion des contenus de Facebook, répond aux articles parus la veille dans ce même journal, qui a obtenu des documents internes précisant la politique de modération de l’entreprise. « Nous ne partageons pas toujours les détails de nos règlements, parce que nous ne voulons pas aider les gens à les contourner », explique-t-elle, en réponse aux critiques accusant Facebook de manque de transparence. « Les situations hypothétiques que nous utilisons pour former nos modérateurs sont intentionnellement extrêmes. Elles sont conçues pour aider les personnes qui font ce travail à gérer les cas les plus difficiles », détaille Monika Bickert, précisant qu’il y a dix ans, une partie des choix de modération « était laissée à la discrétion des employés ». Ceux-là doivent aujourd’hui gérer « des millions de signalements par semaine ». Comprendre le contexte d’une publication et l’intention de son auteur est « difficile », insiste-t-elle. « Parfois nos règles peuvent paraître contre-intuitives », reconnaît-elle, évoquant celle qui consiste à autoriser la diffusion en direct de vidéos d’automutilation dans le but d’aider la personne, selon les recommandations d’experts. « Nous faisons des erreurs, et nous travaillons constamment pour que cela se produise moins souvent. Nous réfléchissons de façon très approfondie pour tenter de trouver les bonnes réponses, même quand il n’en existe pas », assume Monika Beckert, en précisant que les règles de modération de Facebook évoluent en permanence.

Le Monde