Le gouvernement a précisé, jeudi 14 février, ses intentions pour mieux lutter contre les contenus illicites et, en particulier, haineux (racisme, antisémitisme, homophobie…) sur Internet.

Comme prévu et annoncé, une loi renforçant les obligations des réseaux sociaux en la matière sera présentée avant la fin du premier semestre : le secrétaire d’Etat au numérique Mounir Mahjoubi, l’a confirmé, jeudi, lors d’une conférence de presse au ministère de l’économie, à Paris, en présence de Marlène Schiappa, secrétaire d’Etat à l’égalité.

Le gouvernement est encore en train de rédiger sa copie, mais il est d’ores et déjà possible de discerner les contours de ce futur texte : ils transparaissent notamment dans le plan d’action du gouvernement contre les contenus haineux en ligne, publié jeudi par M. Mahjoubi.

De nouvelles obligations pour les plates-formes ?

Parmi les projets en cours de réflexion, la création d’un statut juridique spécifique à certains réseaux sociaux, entre celui d’hébergeur (largement dispensé de responsabilité sur le contenu créé par les internautes) et d’éditeur (qui doit en assumer la pleine responsabilité) tient nettement la corde. Cela permettrait de changer les règles et les obligations légales de sites comme Facebook, YouTube, Twitter, en France, concernant les activités de leurs utilisateurs et leur modération. Une telle modification devra cependant respecter le cadre européen, qui ne prévoit pas explicitement de statut intermédiaire.

Cette loi devrait également aboutir à un toilettage en profondeur du texte actuellement en vigueur, la loi pour la confiance dans l’économie numérique, notamment pour faciliter le signalement d’un contenu « manifestement illicite ».

Les grandes plates-formes pourraient être encouragées à davantage utiliser des outils de détection automatique de contenus problématiques.

Les réseaux sociaux comme Facebook, Twitter ou YouTube pourraient aussi être forcés d’afficher un message d’avertissement « présentant les risques encourus en cas de production de contenus haineux » et de faire preuve de plus de transparence concernant leurs règles internes qui leur permettent de décider ce qui est autorisé, ou non, sur leurs services.

Les grandes plates-formes pourraient aussi être encouragées à davantage utiliser des outils de détection automatique de contenus illégaux, qui pourraient être mis « en quarantaine » en attendant qu’ils soient évalués par leurs équipes.

La mise en place d’un délai obligatoire de retrait des contenus manifestement illicites, un des éléments les plus craints par les réseaux sociaux, pourrait aussi être au menu, de même qu’un mécanisme d’appel pour internautes ayant eu leur contenu supprimé. La voie à l’amélioration des outils qui permettent à un utilisateur d’avertir le réseau social d’un contenu problématique est également ouverte.

Le gouvernement abordera aussi la question du blocage de certains sites Web. La députée de Paris, Laetitia Avia, a aussi expliqué, jeudi, se pencher sur la question. « Certains sites sont capables de se multiplier en changeant d’adresse : on va devoir trouver un régime pour bloquer ces sites et leurs miroirs », a souligné Mounir Mahjoubi, faisant référence entre les lignes au site Démocratie participative, dont la justice française a ordonné le blocage mais apparu depuis à une autre adresse Web, non bloquée.

Si de nombreux interlocuteurs saluent les efforts de Facebook sur le sujet des contenus haineux et de la modération, certains réseaux sociaux sont dans le viseur du gouvernement, en particulier Twitter qui n’est « pas à la hauteur des enjeux », selon les mots prononcés par Marlène Schiappa jeudi. Dans ce contexte, le réseau social VKontakte inquiète aussi les autorités : « nous n’y avons aucun interlocuteur, on a aucune visibilité sur leurs règles de modération et toute la fachosphère y a trouvé refuge », raconte une source gouvernementale en pointe sur le sujet.

Enfin, il n’est pas exclu, à ce stade, qu’une autorité indépendante chargée d’encadrer le travail de modération des contenus sur les réseaux sociaux, soit créée, comme le préconisait en septembre le rapport de la députée de Paris (LRM), Laetitia Avia.

Premier bilan pour la mission du gouvernement chez Facebook

La future loi pourra se nourrir de la mission de collaboration entre Facebook et l’Etat français, annoncée en fin d’année dernière et en grande pompe par le président de la République. Cette mission a commencé ses travaux au mois de janvier et un premier bilan en a été dressé jeudi 14 février.

Le groupe, composé de dix personnes, est notamment composé, selon nos informations, de Serge Abiteboul, docteur en informatique et ancien titulaire de la chaire d’informatique au Collège de France ; de Frédéric Potier, préfet et délégué interministériel à la lutte contre le racisme ou encore le magistrat ; ou encore de Jacques Martinon, chef de la mission de prévention et de lutte contre la cybercriminalité au ministère de la justice. Le ministère de l’intérieur, le ministère de la culture et le Conseil supérieur de l’audiovisuel (CSA) sont également représentés.

Ce petit groupe a déjà effectué plusieurs déplacements, notamment à Dublin, au siège européen du réseau social, ainsi qu’à Barcelone, où Facebook réalise une partie de la modération des contenus en français.

Article réservé à nos abonnés Lire aussi Visite dans l’un des très secrets centres de modération de Facebook

Les membres de l’équipe n’ont pas eu accès à des éléments liés à l’algorithme du réseau social ni à des informations sensibles. Mais ils ont pu interroger des modérateurs et leurs formateurs et accéder à certains documents, notamment les consignes et règles internes. Ils ont aussi réalisé plusieurs études de cas, proposées par Facebook, pour constater la difficulté qu’il y a, parfois, à déterminer si un commentaire ou une image a le droit de rester ou non sur le réseau social. Quelques déplacements sont encore prévus, notamment à Londres et à Menlo Park, près de San Francisco, où Facebook dispose de son quartier général.

Un « jeu de rôle » pour anticiper le rôle d’une future autorité de contrôle.

Les membres de cette task force n’entendent pas, à l’issue de leurs travaux qui s’achèveront d’ici à quelques semaines, délivrer un satisfecit officiel de l’Etat sur la manière dont Facebook modère les messages sur ses réseaux. L’idée est plutôt de réaliser une sorte de « jeu de rôle », dans lequel ses membres s’imaginent être une autorité de régulation chargée de vérifier le sérieux des méthodes de Facebook en la matière. Ce qui devrait donc alimenter la future loi prévue avant l’été.

« Les portes ont été ouvertes et la discussion est profonde. Elle permet de mieux comprendre le phénomène des contenus haineux sur les plates-formes. Mais ce n’est pas Facebook qui va écrire la loi », a tenu à préciser Mounir Mahjoubi. Ce dialogue ne concerne d’ailleurs pas seulement Facebook : des contacts entre cette task force et d’autres plates-formes ont été noués ces dernières semaines.