Dans le cadre de sa lutte contre les contenus terroristes, YouTube a supprimé plusieurs vidéos illustrant les crimes de guerre commis en Syrie. Des journalistes et chercheurs s'estiment lésés par cette initiative.

YouTube se trompe de cible. Dans le cadre de sa politique de modération des contenus faisant l'apologie du terrorisme, une intelligence artificielle créée par Google a supprimé plusieurs vidéos informatives concernant les crimes de guerre commis en Syrie. Plusieurs vidéos du média d'investigation Bellingcat, du site d'informations Orient News, assimilé à l'opposition, ou de l'organisation Airwars, qui suit de près les conflits en Irak, en Syrie et en Libye, ont ainsi été retirées.

Le chercheur et spécialiste de la question syrienne Eliot Higgins, par ailleurs fondateur de Bellingcat, s'en est étonné dans une série de tweets. Son compte personnel a lui aussi été supprimé, avant d'être rendu à nouveau accessible. «L'une des vidéos signalées concernait l'exécution de James Foley et permettait d'écouter ses derniers mots, sans montrer de scène violente», déclare Eliot Higgins au Figaro. «Je n'ai reçu aucun avertissement ni aucune explication avant la suspension de ce compte. J'ai pu contacter personnes au courant de mon travail chez Google, mais les comptes syriens touchés doivent passer par la procédure normale. C'est là que réside le problème. Certains comptes sont détenus par des personnes décédées ou ne pouvant plus faire appel à cette procédure.»

«YouTube a supprimé mon compte en raison de vidéos sur la Syrie mises en ligne il y a deux ou trois ans», a-t-il indiqué sur Twitter, avant de détailler les raisons et les conséquences de cette initiative. «Ironiquement, en supprimant des chaînes de l'opposition vieilles de plusieurs années, YouTube cause plus de tort à l'histoire syrienne que ce que l'État islamique aurait pu espérer», a-t-il ajouté.

L'intelligence artificielle comme modérateur

Début août, dans un post de blog, YouTube s'est félicité des progrès réalisés dans la suppression automatique de vidéos djihadistes. Basé sur le «machine learning», un champ de l'intelligence artificielle, ce procédé ne nécessite plus d'intervention humaine et contribue à «une meilleure détection» ainsi qu'à un «retrait plus rapide» des contenus à connotation terroriste, selon YouTube.«Bien que ces outils ne soient pas encore parfaits, nos systèmes se sont avérés à plusieurs reprises plus précis que certains humains pour détecter les vidéos qui devaient être supprimées», est-il précisé. YouTube assure que plus de 75 % des vidéos supprimées en juillet pour «extrémisme violent» l'ont été avant d'être signalées par des humains.

Victime de cette innovation, le site d'informations Middle East Eye s'est montré critique à l'égard de l'intelligence artificielle mise à profit par YouTube.

«YouTube supprime des vidéos documentant les crimes de guerre au Moyen-Orient, et utilise des «robots» pour le faire...».

Selon un porte-parole de YouTube, contacté par le Figaro, ces innovations technologiques sont encore en cours d'amélioration. «Compte tenu du volume de vidéos sur notre site, nous pouvons parfois faire une erreur», estime-t-il. «Lorsqu'on porte à notre attention qu'une vidéo ou une chaîne a été supprimée par erreur, nous agissons rapidement pour la réintégrer.»

En matière de suppression des contenus terroristes, les géants du Web, Google inclus, sont sous pression. Le G7, réuni fin mai en Italie, a pour la première fois appelé ces grandes entreprises, longtemps critiquées pour leur passivité, à faire davantage dans la lutte contre le terrorisme. Le 13 juin, le président français Emmanuel Macron et la première ministre britannique Theresa May ont publié un «plan d'action» pour inciter, à nouveau, les géants du Net à endiguer la propagande djihadiste sur Internet.