Le réseau social avait supprimé, par deux fois, un article concernant les identitaires, partagé sur notre page la semaine dernière, allant même jusqu’à menacer de la fermer.

La menace de fermeture de la page de Valeurs actuelles, brandie par Facebook, n’est plus. Notre article, intitulé « Alex Hugo contre les “identitaires” : quand la télévision publique fait sa propagande pour les migrants », partagé vendredi 13 septembre et entretemps supprimé à deux reprises par le réseau social américain a même été restauré depuis à sa date d’origine.

L’article en question, concernant cette série de la chaîne France 2 qui caricaturait le combat des militants identitaires contre les migrants à la frontière italienne dans une allusion évidente à l’opération « Mission Alpes » de 2018, avait été alors jugé, par Facebook, en « infraction » de ses standards de la communauté, « sur les individus et organismes dangereux ».

Surpris par ces suppressions répétées, nous publiions le jour même un article, titré « Facebook censure Valeurs actuelles et compare les identitaires à des “individus dangereux” », largement commenté sur les réseaux sociaux par de nombreux internautes, lecteurs et même des hommes politiques, tout en contactant le réseau social pour obtenir la justification de cette décision.

Une décision inappropriée et injustifiée

Sollicité par nos soins, Facebook France reconnaît aujourd’hui « une erreur ». A la suite de notre signalement et de nos protestations, le groupe a ainsi procédé à un nouvel examen pour s’assurer que l’article était conforme à ses règles internes, ses fameux standards de la communauté, en a conclu que notre article ne violait en rien les principes du réseau social et donc que son rejet était une décision inappropriée et injustifiée.

A cette occasion, Facebook tient auprès de nous à souligner qu’il ne pratique pas de censure politique, ne favorise pas une opinion par rapport à une autre et que l’unique boussole de sa modération sont ses standards de la communauté, seules règles qui encadrent les décisions prises sur les contenus, mais en aucun cas l’idéologie politique ou l’appartenance religieuse.

Facebook tient également à rappeler qu’elle est une plateforme ouverte à toutes les idées et opinions politiques, à condition qu’elles soient conformes à ses standards de la communauté. Quel que soit le contenu posté par un utilisateur, l’examen de sa « recevabilité » ne se fait que par rapport aux standards de la communauté, jamais par rapport aux orientations politiques, assure l’équipe française de la firme américaine.

Pas de surveillance particulière de Valeurs actuelles

A ce sujet, notre hebdomadaire ne fait pas l’objet d’une surveillance particulière par rapport aux autres médias, insiste Facebook. Quant aux identitaires, ils ne font pas non plus l’objet d’un traitement différencié par rapport à d’autres groupes politiques ou militants, renchérit la plateforme, qui répète que les mêmes règles s’appliquent à tous ses utilisateurs dans le monde.

Dans le cas de Valeurs actuelles, c’est un second examen effectué par un modérateur qui a permis de détecter l’erreur, indique donc Facebook, qui n’est pas toutefois en mesure de préciser si la première suppression a été opérée par un robot ou un humain, sachant que la modération des contenus associe outils informatiques et modérateurs humains (15 000 dans le monde).

En tout cas, la restauration de l’article n’a pas été décidée sous la pression médiatique, ni à la suite de la publication de notre second article, insiste Facebook, mais uniquement au regard des standards de la communauté. En revanche, c’est bien le signalement réalisé par Valeurs actuelles auprès de la plateforme qui a entraîné un nouvel examen de l’article incriminé.

En effet, le réseau social ne procède pas à des contrôles automatiques à posteriori. C’est tout le principe de la procédure d’appel de Facebook, qui permet à tout utilisateur de contester la pertinence de ses décisions, insiste le groupe américain. Ses systèmes permettent de détecter pro-activement les contenus contraires à ses règles, notamment pornographiques ou terroristes.

Un système de contrôle imparfait

En revanche, la surveillance des contenus haineux est plus difficile et moins efficace, observe Facebook, car il s’agit de textes et non d’images. Sur tous ces contenus supprimés, seuls 65 % sont détectés automatiquement par les machines, précise le réseau, qui affirme faire de gros progrès et investir massivement dans le développement de ses outils de détection proactifs.

Interrogé sur la persistance de pages haineuses liées à la mouvance antifasciste par exemple, la plateforme reconnaît d’ailleurs que son système est encore imparfait et que des groupes haineux ne sont pas encore identifiés, mais qu’à partir du moment où ils sont signalés ou détectés, un examen de leur contenu peut entraîner leur suppression en cas de non-respect de ses règles internes.

Comme le note son rapport sur la transparence, à propos des « discours haineux » (discours violent ou déshumanisant, appel à l’exclusion selon l’ethnie, la religion, le genre, etc.), Facebook a pris des mesures pour 4 millions de contenus entre janvier et mars 2019, dont 1,1 million a fait l’objet d’un appel et 151 200 ont été restaurés (130 000 après appel, 21 200 sans appel).

Valeurs actuelles se félicite d’avoir pu faire valoir son bon droit à une information à la fois honnête et non prisonnière de tout conformisme. Et maintient : le téléfilm de France 2 était artistiquement absolument médiocre et idéologiquement indécent de parti pris !