Un groupe de chercheurs a réalisé une étude très intéressante sur la dynamique qui régit les groupes de haine sur Internet. Il en a tiré un ensemble de quatre propositions, qui pourraient trouver des applications dans la vie réelle, sous réserve de prendre les précautions nécessaires.

Les groupes haineux à la rhétorique agressive n’ont jamais autant prospéré qu’à l’ère d’Internet. Les idéologies les plus nauséabondes peuvent trouver refuge à l’abri d’un site web obscur, et déverser des atrocités de façon quasiment anonyme et donc décomplexée, libérée. Ces groupes sont inquiétants car on retrouve souvent leur trace à l’origine de drames comme la tuerie de Christchurch, en Nouvelle-Zélande. Et comme on l’a vu récemment avec le cas de Cloudflare et 8chan, les retombées sont souvent compliquées à gérer à cause de l’absence d’un cadre juridique global. C’est avec ces problèmes en tête qu’une équipe de chercheurs des universités George Washington et de Miami a mené une étude pour s’attaquer à ce problème. Ils ont scruté plusieurs groupes de haine sur Facebook et VKontakte pour étudier leur architecture. Et d’après leurs conclusions, ils seraient bien plus difficiles à éradiquer que prévu car il ne s’agit pas de poches uniformes, mais de véritables petites galaxies.

Cette étude se base sur un concept un peu différent de la plupart des travaux sur le sujet : elle ne se base pas sur les individus ou sur les réseaux, mais vise encore une marche plus haut et cartographie les “réseaux de réseaux”. D’après eux, de tels groupes pousseraient à la manière de “grappes” interconnectées, et c’est ces connexions qui les rendraient aussi compliqués à éradiquer.

Puisqu’on parle d’Internet, ces clusters ne sont pas forcément géographiquement proches, mais communiquent par des “autoroutes” à travers lesquelles ces messages de haine transitent. Cela en facilite la dissémination indépendamment de la langue ou de la région. C’est donc une structure dynamique, capable de s’auto-réparer et de reformer des liaisons rapidement en cas de dégâts – quand un groupe est banni par un administrateur, par exemple.

Quatre propositions pour faire la guerre aux groupes de haine sur le Net

Ce fascinant papier de recherche a effectué un impressionnant plongeon dans l’aspect mathématique et analytique qui sous-tend la dynamique de ces clusters. Ils ont ainsi pu en déduire quatre mesures qui, si elles étaient appliquées correctement, pourraient toucher les points vitaux de ces groupes de haine. Et le plus intéressant, c’est que leur système est uniquement fonctionnel – pas besoin de connaître la moindre donnée personnelle sur les individus concernés ! Voici ces quatre propositions :

Bannir des clusters relativement petits, plutôt que de viser le plus gros.

Le raisonnement est plutôt simple : il faut arrêter de voir ces groupes comme une bête conventionnelle, qui mourra si on lui coupe la tête. A la place, il faut s’empêcher de s’alimenter en assimilant des clusters plus petits. De plus, il existe un véritable phénomène d’appel d’air. Lorsqu’un grand groupe est démantelé, cela a tendance à faire sur-réagir les plus petits, qui s’agglomèrent alors en un seul et même point.

Bannir un petit nombre d’utilisateurs désignés et au hasard de ces clusters

Cette mesure peut sembler contre-intuitive, tant elle va à l’encontre du concept même de modération sur Internet. Classiquement, on s’attend à ce qu’un internaute ne respectant pas la charte d’une communauté ou d’un service soit instantanément puni pour éviter que ces messages hors-charte ne se propagent. L’idée est donc clairement de miner ces groupes sur le moyen terme, plutôt que d’organiser des sortes de “raids” de grande envergure plutôt inefficaces. Cela pourrait être lié au fait que de tels groupes, quand ils se complaisent dans une rhétorique subversive et anti-système, peuvent interpréter tout bannissement comme une preuve de leur légitimité. “Si l’oppresseur censure mes amis, c’est qu’il se sent menacé et que mes amis ont raison !” Le bannissement d’un groupe important peut donc sonner comme un cri de ralliement, ce qui est l’inverse de l’effet recherché.

Promouvoir l’organisation de clusters anti-haine qui pourraient contrer les clusters haineux, à la manière d’un “système immunitaire” humain.

L’idée de vouloir assainir les gens les plus haineux en les contrant avec des des groupes anti-haine peut sembler tomber sous le sens, mais en pratique, il n’est pas évident de voir comment l’appliquer. L’idée de créer une IA censée déterminer qui est haineux et qui ne l’est pas paraît au mieux discutable. Reste donc à réfléchir quelle forme cela pourrait prendre sur le terrain.

Introduire un groupe artificiel d’internautes pour encourager la confrontation d’idées entre les clusters haineux ayant des vues opposées

C’est probablement la proposition la plus intéressante de l’étude. Ici, les auteurs suggèrent clairement de combattre le feu par le feu en redirigeant les forces vives de chaque groupe de haine contre des associations similaires. Le “groupe artificiel d’internautes” est ici un terme assez édulcoré. Il s’agit clairement de sortes de “groupes d’intervention”, chargés de cibler spécifiquement des groupes de haine vulnérables. Avec pour objectif de verrouiller certains points de raisonnement précis, et de souffler sur les braises en direction d’un autre groupe de haine… pour les laisser terminer le travail et se désagréger. Diviser pour mieux régner, en somme.

Une fenêtre sur les mécanismes de la transmission d’idées

Un point important à noter est que ces propositions ne sont pas le fruit du travail de quelques individus qui ont tenté de comprendre la psyché de groupuscules extrémistes. Il s’agit d’une vaste étude scientifique, documentée, basée sur des outils analytiques et mathématiques – et non sur une interprétation des opinions, qui serait de toute façon biaisée dans une certaine mesure. Comme mentionné plus haut, cette technique ne nécessite pas de jauger la position de chaque internaute haineux individuellement et on se retrouve donc avec des déductions qui viennent de comportements constatés à l’échelle du cluster, non pas de l’individu.

Cela explique pourquoi certaines peuvent sonner particulièrement contre-intuitives. Ce modèle se comporte un peu comme un ordinateur qui joue aux échecs : il arrive à repérer des liens de causalité qui nous échappent complètement. Ce qui signifie qu’il peut jouer des coups “bizarres”, qui n’améliorent pas la situation à première vue, mais qui se révéleront plus efficaces sur le long terme. En l’occurence, la méthode semble être de diviser pour mieux régner, avec l’espoir de fragiliser tous ces clusters jusqu’à ce qu’ils s’écroulent sous le poids de leurs propres contradictions.

Evidemment, il ne s’agit que d’un modèle analytique avec ses failles et ses biais. Les auteurs appellent à la prudence, et rappellent que l’implémentation de chacune de ces mesures devrait se faire à la lumière d’une analyse empirique, en surveillant l’évolution des clusters en permanence. De plus, ces propositions restent théoriques et devraient être adaptées à un cadre légal, ce qui s’annonce d’ores et déjà comme un calvaire sans nom… Et on ne parle même pas du casse-tête au moment de déterminer qui cibler, et qui prendra cette décision.

Mais cette étude a le mérite d’offrir une perspective très intéressante, avec une observation méthodique, fine et très bien pensée des mécanismes de transmission des idéologies à l’ère d’Internet. Il est plus que probable que d’autres études de ce type, peut-être à plus grande échelle, soient un jour la base de futures législations visant à encadrer l’influence des groupes de haine.

Mais en lisant cette étude, on peut également imaginer des tas d’autres applications à de tels systèmes. Et si, à la place de traquer les groupes malfaisants, on s’assurait de garder en bonne santé les clusters sains et productifs? Il pourrait s’agir d’une piste à explorer pour favoriser la liberté d’expression et l’esprit critique – étouffant ainsi d’autant plus les poches de “fake news”, qui partagent de nombreux points communs avec ces groupes de haine. On peut aussi s’imaginer que des clusters de militants pour les droits de l’Homme et la démocratie pourraient aussi gagner à être choyés, pour couper les vivres autant que possible aux idéologies autoritaires.

Quoi qu’il en soit, nous nous dirigeons tout doucement vers un âge d’or de l’analyse de ces phénomènes sociaux à très grande échelle, qui englobent un champ infini de phénomènes humains et sociaux. On espère en tout cas qu’un bon usage sera fait de ces outils “méta-analytiques”, car pour chaque utilisation positive citée, la réciproque existe aussi…