Mise à jour 19 juillet 2018 :

Mark Zuckerberg est revenu sur la polémique dans une interview. Interrogé par ReCode, le PDG du plus grand réseau social de la planète a tenté d'expliquer pourquoi ses modérateurs ne supprimaient pas simplement les propos négationnistes, racistes, ou islamophobes. Dans une explication assez maladroite, Mark Zuckerberg prend l'exemple de la Shoah : « Je suis juif, et il y a de nombreuses personnes qui nient la Shoah. Je trouve cela choquant. Mais au bout du compte, je ne crois pas que ce soit le rôle de notre plateforme de retirer [ces propos]. Car il y a des choses sur lesquelles certaines personnes se trompent. Je ne pense pas que ce soit intentionnel ». La journaliste l'interrompt alors : “dans le cas des personnes qui nient l'holocauste, il se pourrait que ce soit intentionnel, mais continuez…”. Mark Zuckerberg rétorque alors : “c'est difficile de caractériser l'intention, ou de la comprendre”.

Dans un deuxième temps, il ajoute : “ce que nous faisons, c'est de dire ‘Ok vous avez votre page, et si vous n'essayez pas d'organiser quelque chose qui porte atteinte à quelqu'un ou n'attaquez personne, alors vous pouvez mettre ce contenu sur votre page, même si des personnes peuvent être en désaccord ou être choqués par ce contenu'. Mais cela ne signifie pas que nous avons pour devoir de le distribuer largement dans le Fil d'actualités. Au contraire, je pense”.

Facebook protégerait des groupes radicaux sur son réseau social selon une nouvelle enquête accablante. Un journaliste s’est fait engager comme modérateur pour le compte du géant et a découvert que de nombreuses règles protégeaient les activistes. En outre, les membres de l’équipe de modération sont invités à fermer les yeux lorsque des mineurs de moins de 13 ans sont suspectés d’utiliser le service, ces derniers ne peuvent normalement pas avoir de comptes Facebook.

Un journaliste britannique de la chaîne de TV “Channel 4” s’est fait engager par Cpl Resources, une entreprise sous-traitée par Facebook qui se charge d’une partie de la modération du contenu partagé sur le réseau social. Ce dernier s'aperçoit que certaines pages et groupes appartenant à des groupes activistes d'extrême droite sont protégés par ce qu’ils nomment “shielded review ou examen protégé». En général ce dispositif est réservé à certains organismes (médias, gouvernements…), il permet de ne pas supprimer des pages importantes sur le réseau social. Seul Facebook a la possibilité de le faire.

Facebook : une enquête accablante révèle que le réseau social protège des activistes radicaux

Plusieurs exemples ont été donnés dans le reportage de Channel 4 notamment une page d’un membre d’un groupe activiste islamophobe britannique. Facebook aurait traîné des pieds pour supprimer du contenu à caractère haineux partagé sur son service. Entre temps, Facebook a réagi en publiant un billet de blog suite à la diffusion du reportage et se défend : “nous tenons à préciser que nous supprimons le contenu de Facebook, peu importe qui le publie, quand il viole nos normes. Il n'y a aucune protection spéciale pour un groupe – que ce soit à droite ou à gauche … le système décrit – signifie simplement que certains contenus de certaines pages ou de certains profils sont soumis à une seconde couche de révision pour s'assurer que nous avons correctement appliqué nos règles».

Le journaliste de Channel 4 ne s’arrête pas là et selon lui les enfants mineurs de moins de 13 ans qui sont repérés par la modération ne sont en aucun cas inquiétés, les modérateurs étant invités à “fermer les yeux, ils n’ont rien vu”. En effet, les mineurs de moins de 13 ans n’ont pas la possibilité d’utiliser les réseaux sociaux comme Facebook en Europe et aux États-Unis. Le journaliste estime que Facebook a un évident intérêt financier à fermer ainsi les yeux sur certaines pratiques. Facebook a lancé une enquête en interne pour déterminer pour quelles raisons les règles de modération n’étaient pas correctement appliquées.