Le métier de modérateur n’est pas chose aisée : il faut visionner des heures de contenus illégaux, parfois abjects, pour préserver les membres d’un forum, d’un réseau social ou de toute autre plateforme en ligne.

Deux anciens modérateurs de Microsoft, Henry Soto et Greg Blauert, ont porté plainte contre Redmond l’accusant de ne pas avoir mis en place des mesures nécessaires à leur détresse psychologique.

Du contenu “inhumain et répugnant”

Chargés, comme tout membre de la « online safety team », de visionner les contenus signalés par les internautes ou détectés par un quelconque algorithme, comme ceux sévissant sur Facebook, les deux hommes disent désormais souffrir de stress post-traumatique après avoir été confrontés à du contenu « inhumain et répugnant », « le pire qu’un humain puisse faire ».

Ainsi, depuis 2008 pour l’un et 2011 pour l’autre, ils ont été soumis à des images et des vidéos de meurtres, d’abus sexuel sur enfants, « d’agressions sexuelles indescriptibles », de viols ou « d’ultra-violence », et devaient, si besoin, les supprimer ou saisir les autorités, comme la loi américaine l’exige.

Négligence de Microsoft

Dans leur plainte, les deux hommes reprochent à Microsoft d’avoir été négligent sur leur prise en charge psychologique. Après plusieurs années à ce régime, Henry Sotto affirme avoir développé un trouble dissociatif, une dépression, des « attaques de panique » et même des « hallucinations visuelles ». Pire, son rapport aux enfants, dont son propre fils, se trouve aujourd’hui totalement bouleversé, il est incapable de les approcher sans voir remonter les images des « violentes agressions d’enfants dont il a été témoin ».

Greg Blauert pour sa part assure souffrir d’un « syndrome de stress post-traumatique », il s’est isolé et se dit incapable de reprendre le travail.

Des employés traumatisés et ignorés

Lorsqu’ils ont remonté ces problèmes à leur hiérarchie, celle-ci leur aurait simplement recommandé « d’aller fumer », de sortir prendre l’air ou de « jouer à des jeux vidéo pour se distraire ».

Pour se défendre, Microsoft assure prendre très au sérieux le bien-être de ses employés travaillant dans cette équipe : « Microsoft prend au sérieux sa responsabilité de supprimer et de signaler les images pédopornographiques partagées sur ses services, tout comme la santé et la résilience des employés qui s’acquittent de cette tâche importante », assure la firme dans un communiqué transmis à plusieurs médias.

Outre un programme de bien-être mis en place par la firme avec soutien psychologique renforcé pour ses employés, Microsoft affirme utiliser des technologies pour « réduire le réalisme des images », notamment en les floutant ou en les passant en noir et blanc dans des formats réduits. Le cas échéant, sur simple demande, les modérateurs peuvent être assignés à d’autres postes.

Cette affaire met en lumière un métier et une pratique gardée secrète par les firmes high-tech. Celles-ci se montrent peu disertes lorsqu’il s’agit d’évoquer le travail de ces modérateurs ou leur politique de modération. Si les algorithme détectent le contenu illicite, celui-ci doit encore être passé en revue par des humains.

Un métier entouré de mystère

En 2012, un ancien modérateur de Facebook dévoilait les dessous peu reluisants de son métier à Gawker (RIP)

Deux ans plus tard, c’est Wired qui enquêtait sur cette tâche que la plupart externalise aux quatre coins du monde et qui laissent traumatisés bon nombre de modérateurs.

Plus récemment, SZ-Magazin, le supplément du quotidien Süddeutsche Zeitung, dressait un portrait sidérant du travail effectué par quelque 600 employés à Berlin : « J’ai vu des choses qui me font remettre sérieusement en cause ma foi en l’Humanité », expliquait l’un d’eux sous couvert d’anonymat.

Facebook également pointé du doigt

Les règles entourant ce métier sont très opaques et les modérateurs n’auraient que 8 secondes par images et vidéos pour prendre une décision : « Les règles sont quasiment impossibles à comprendre », s’indignait un employé. « J’ai dit à mon chef d’équipe: c’est fou, personne ne devrait voir cette image pleine de sang et de violence. Mais il m’a répondu : c’est juste ton opinion. Tu dois essayer de penser à ce que Facebook veut. On s’attend à ce que nous pensions comme des machines. »

Et là aussi, aucun soutien psychologique n’est apporté par Facebook ou l’entreprise sous-traitante : « Je ne supporte plus l’idée d’avoir des relations sexuelles. Je n’ai plus été intime avec mon partenaire depuis plus d’un an. Je commence à trembler dès qu’il me touche », rapporte une employée.

« Je sais que quelqu’un doit faire ce job », estime une autre source. « Mais cela devrait être des personnes qui reçoivent une formation digne de ce nom et du soutien quand elles en ont besoin. Elles ne devraient pas être jetées dans le grand bain comme nous l’avons été. »

Microsoft ne sera peut-être pas la première, ni la dernière entreprise high-tech à se voir assigner devant les tribunaux par d’anciens modérateurs, traumatisés par leur métier.