Des Rohingya fuient un village, en octobre 2016. Marzuki Darusman, mandaté par l’ONU, avait estimé, en mars, que Facebook avait « substantiellement contribué au niveau d’animosité, aux dissensions et au conflit » du fait de la diffusion de « discours de haine » contre cette minorité ethnique. Soe Zeya Tun / REUTERS

Plus d’un millier de messages appelant à la haine contre les Rohingya : c’est ce qu’ont pu trouver les journalistes de l’agence Reuters, en enquêtant sur la diffusion de contenus haineux sur Facebook en Birmanie. Une partie des messages a, depuis, été supprimée, mais la majorité d’entre eux étaient toujours en ligne début août, écrit l’agence.

Pourtant, le réseau social, qui jouit d’une popularité exceptionnelle en Birmanie, a promis à plusieurs reprises de renforcer substantiellement ses efforts contre la propagation de messages appelant à la haine dans le pays. Le réseau social est accusé d’avoir joué un rôle essentiel dans la diffusion de messages racistes et d’appels à la violence contre les Rohingya, cette minorité ethnique majoritairement musulmane cible de violences de la part de civils et de militaires que les Nations unies assimilent à un nettoyage ethnique. Environ 700 000 Rohingya ont dû fuir le pays.

A plusieurs reprises, ces dernières années, les violences ont eu lieu après la diffusion sur Facebook de messages mensongers – notamment des rumeurs de viols commis par des Rohingya sur des femmes bouddhistes. Marzuki Darusman, le président de la mission internationale mandatée par l’ONU pour enquêter sur les violations de droits humains en Birmanie, avait estimé, en mars, que Facebook avait « substantiellement contribué au niveau d’animosité, aux dissensions et au conflit » du fait de la diffusion de « discours de haine ».

Quatre modérateurs parlant birman

Selon l’enquête de Reuters, les problèmes en Birmanie sont anciens, et Facebook, alerté à plusieurs reprises par des ONG et des experts depuis 2013, n’a rien fait, ou presque, avant 2016. Pour sa modération, Facebook s’appuie en grande partie, en Birmanie comme ailleurs, sur les signalements d’utilisateurs. Mais l’entreprise ne disposait que d’un seul modérateur parlant birman en 2014 – fin 2015, il n’y en avait que quatre pour gérer les messages remontés par les 7,3 millions d’utilisateurs dans le pays à l’époque. Le réseau social avait largement recours à des modérateurs ne parlant pas birman, et donc dépendants d’outils de traduction automatique.

Or, ces outils fonctionnent mal avec le birman. Dans un exemple mis en avant par Reuters, une phrase disant qu’il faut « tuer tous les kalars [terme insultant désignant les Rohingya] de Birmanie, aucun ne doit rester en vie » est traduite par l’outil automatisé de Facebook en « il ne faut pas qu’il y ait d’arcs-en-ciel en Birmanie ».

Les outils de détection automatique des contenus haineux, dans lesquels Facebook a largement investi ces dernières années, connaissent également d’importants problèmes en Birmanie. Un responsable de Facebook, cité anonymement par Reuters, reconnaît que les caractères de la langue birmane, « qui s’affichent souvent de manière incorrecte sur écran », compliquent la tâche des algorithmes. Dans un communiqué publié mercredi 15 août, Facebook affirme cependant avoir été capable de détecter « 52 % des messages supprimés au second trimestre 2018 » grâce à ses outils de surveillance automatique, contre « 13 % au dernier trimestre 2017 ».

Plus de « relations avec les associations sur place »

Ces deux dernières années, Facebook a embauché davantage de modérateurs sous-traitants parlant birman. « Nous sommes en train d’augmenter le nombre de modérateurs qui parlent birman et nous resserrons nos relations avec les associations sur place, détaillait, en mai, dans un entretien au Monde, la responsable des contenus de Facebook, Monica Bickert. En Birmanie, la violence s’est propagée très vite, et bien connaître le contexte est très important pour nos modérateurs lorsqu’ils vérifient des contenus. » Le réseau social affirme désormais employer soixante modérateurs parlant le birman, et devrait en avoir cent d’ici la fin de l’année.

« Il semble y avoir un effort de Facebook pour s’impliquer dans la résolution du problème, mais beaucoup de leurs réponses se reposent sur l’automatisation, note un membre du collectif birman d’organisations de la société civile qui ont adressé en avril dernier une lettre à Mark Zuckerberg, joint par le Monde. Si l’automatisation permet à Facebook d’être plus proactif, nous constatons de plus en plus de faux positifs, des contenus non offensifs qui sont supprimés, ce qui est problématique du point de vu de la liberté d’expression. Soixante personnes parlant birman, c’est un progrès mais c’est encore loin d’être suffisant pour garantir une modération efficace dans un marché de près de 28 millions d’utilisateurs. On a pu observer une modération plus proactive de Facebook ces derniers mois, mais c’est encore extrêmement partiel et de nombreux messages de haine continuent de circuler. Beaucoup de contenus problématiques datant de 2012-2013 continuent aussi de résider sur la plateforme. »

Les modérateurs pour la Birmanie travaillent très majoritairement depuis Kuala Lumpur, en Malaisie. Facebook ne dispose pas d’équipes de modérateurs en Birmanie. Mais l’entreprise travaille avec quelques sociétés à Rangoun, dont Echo Myanmar, une société de communication dirigée par un Américain, Anthony Larmon.

Fin 2016, M. Larmon avait estimé, dans un message publié sur Facebook, que les accusations de nettoyage ethnique visant le gouvernement birman étaient « trompeuses » et que les Rohingya avaient « exagéré la situation pour obtenir de l’attention et de l’aide internationale ». Le message, supprimé depuis par M. Larmon, « ne représente pas la position de Facebook », s’est justifié le réseau social. Facebook a annoncé, mercredi 15 août, avoir lancé en début d’année un audit interne pour évaluer sa responsabilité en Birmanie.