Enquête« Le Monde » a obtenu les témoignages exceptionnels de ceux qui nettoient Facebook de ses contenus interdits. Ils racontent le quotidien de ce métier si particulier.

« Mon pire souvenir, c’est une vidéo dans laquelle on voit une femme gisant sur le sol, qui a l’air de souffrir, elle a des spasmes, elle vient sans doute de se faire torturer. Quatre hommes autour commencent à lui asséner des coups de machette sur la jambe. Elle hurle, ils lui coupent la tête, et la montrent à la caméra. » Méthodiquement, Arthur* énumère les images qui l’ont le plus choqué quand il était, l’an passé, modérateur pour Facebook à Barcelone. Le râle d’un homme qui a reçu par accident une balle dans la tête. Des bébés mitraillés.

Huit heures par jour, le travail de ce Français consistait à examiner, à la chaîne, les innombrables contenus signalés comme problématiques par les utilisateurs de Facebook.

« Tu passes une journée à être immergé de merde, du pire d’Internet. Tu vois des images d’animaux qui se bouffent entre eux, tu enchaînes avec des scènes de sexe, des gens qui se pendent… C’est les sept péchés capitaux que tu es forcé à regarder toute la journée. »

La question des contenus qui circulent sur Facebook et la façon dont le réseau social les gère, lui vaut d’innombrables critiques, et est devenue l’une de ses principales préoccupations.

Le 15 mars, le terroriste d’extrême droite australien Brenton Tarrant a, par exemple, pu diffuser en direct sur la plate-forme, pendant dix-sept minutes, l’assassinat de cinquante personnes dans deux mosquées de Christchurch en Nouvelle-Zélande. Le dernier impair d’une interminable série. « Les décideurs publics me disent souvent que nous avons trop de pouvoir en matière de liberté d’expression et, franchement, je suis d’accord », a écrit Mark Zuckerberg, le patron de Facebook, dans une tribune publiée samedi 30 mars. Il y évoque l’idée de créer « des organismes tiers », chargés de « définir des standards sur la diffusion des contenus violents et haineux, et d’évaluer les entreprises sur la base de ces standards ».

En attendant, pour nettoyer Facebook des contenus interdits sur la plate-forme, l’entreprise fait appel à 15 000 petites mains comme Arthur, chargées de supprimer ou de laisser en ligne les posts signalés. Le tout, dans une vingtaine de centres dispersés aux quatre coins du globe et gérés par des sous-traitants. Où se situent-ils précisément ? Facebook refuse, depuis toujours, de détailler ces informations. L’entreprise entoure ses équipes de modération d’un grand secret – pour les protéger, justifie-t-elle. Et si elle tend ces derniers mois à entrouvrir, très timidement, la porte – elle a notamment accueilli Le Monde dans son centre de modération de Barcelone en novembre 2018 –, les modérateurs, eux, sont priés de se taire.

Il vous reste 80.79% de cet article à lire. La suite est réservée aux abonnés.