Temps de lecture: 5 min

Vous avez probablement déjà entendu parler des deepfakes. C'est une technologie qui permet de truquer de l'audio et de la vidéo. Ces derniers mois, il y a eu des exemples célèbres comme ces fausses vidéos de Mark Zuckerberg ou de Barack Obama. Ou encore l'appli chinoise Zao aux résultats assez bluffants, qui permet de mettre son visage à la place de celui d'un acteur ou d'une actrice de film. Et d'une certaine manière, FaceApp, l'appli que tout le monde a adoré qui permettait de se vieillir, c'était aussi du deepfake...

C'est un sujet d'inquiétude important: au niveau mondial, les deepfakes vont pouvoir être utilisés pour déstabiliser des pays, des gouvernements, des élections. En juillet dernier, une chercheuse a imaginé ce que pourrait donner une fausse vidéo montrant des soldats américains brûlant le coran en Afghanistan.

Bientôt, on ne pourra plus faire la différence entre une vidéo authentique et un fake. Et que se passera-t-il alors? Les spécialistes s'accordent à penser que nous aboutirons à un régime d'incrédulité totale, où personne ne croira plus rien. Sur son blog, Affordance cite Hannah Arendt dans un entretien sur le totalitarisme: «Quand tout le monde vous ment en permanence, le résultat n'est pas que vous croyez ces mensonges, mais que plus personne ne croit plus rien. Un peuple qui ne peut plus rien croire ne peut se faire une opinion. Il est privé non seulement de sa capacité d'agir mais aussi de sa capacité de penser et de juger. Et avec un tel peuple vous pouvez faire ce qu'il vous plaît.»

À LIRE AUSSI Les deepfakes, un enjeu politique majeur

Les photos de votre visage sont aussi dangereuses

Mais nous n'en sommes pas encore là. Pour l'instant, les victimes des deepfakes ne sont pas les responsables politiques, ou les puissant·es en général. La cible privilégiée des deepfakes, ce sont les femmes. D'après une étude récente de Deeptrace, société spécialisée dans leur détection, les deepfakes décelés par ses services ont augmenté de 84% en moins d'un an. 96% sont pornographiques, à savoir qu'il s'agit de vidéos porno sur lesquelles on a collé la tête d'une personne. Et, attention effet de non-surprise totale: 100% concernent des femmes. Autrement dit, 96% des deepfakes consistent à mettre le visage d'une femme sur une vidéo porno (j'ai envie de dire qu'internet sera toujours internet...).

Vous vous souvenez l'époque où on multipliait les reportages pour expliquer qu'il fallait protéger nos photos et vidéos intimes? Les téléfilms américains sur le revenge porn? (J'ai moi-même écrit un roman dont l'histoire démarre avec un revenge porn, soit le fait qu'un ex revanchard publie une vidéo sexuelle de vous sur internet.) On appelait donc à la prudence. Désormais, c'est inutile. L'ex rageur n'aura qu'à trafiquer une vidéo porno quelconque et mettre votre visage dessus. Et ce sera d'autant plus facile qu'il aura accès à un plus grand nombre de photos de votre visage. On n'aurait pas dû mettre en garde uniquement contre les photos nues, mais contre toutes les photos.

Prenons une appli basée sur la même idée merdique: DeepNude. Je suis désolée de le dire comme ça, mais DeepNude, c'était vraiment l'appli des gros beaufs. Vous preniez une photo classique d'une personne et l'appli vous en proposait une version (élaborée par l'algo donc fausse) où cette personne était à poil.

Capture d'écran du site de DeepNude.

J'ai dit «une personne»? Excusez-moi, je rectifie. Une photo d'une femme puisque l'appli ne fonctionnait que sur des corps de femmes. Surprise! Les concepteurs ont essayé d'argumenter que ce n'était pas un choix misogyne mais un simple problème technique, parce qu'il y a beaucoup plus de photos de femmes nues sur internet que d'hommes. Officiellement, l'appli a disparu depuis juin dernier, mais on peut encore la choper un peu partout sur internet.

Montrer le corps nu d'une femme, c'est humiliant

Le phénomène des deepfakes sexuels est devenu suffisamment inquiétant pour que des pays s'y intéressent. Aux États-Unis, la Virginie a décidé de légiférer. Dévoiler une photo nue d'une personne sans son consentement tombe sous le coup de la loi, que la photo soit réelle ou truquée. Numerama rappelle qu'en France «est puni d'un an d'emprisonnement et de 15.000 euros d'amende le fait de publier, par quelque voie que ce soit, le montage réalisé avec les paroles ou l'image d'une personne sans son consentement, s'il n'apparaît pas à l'évidence qu'il s'agit d'un montage ou s'il n'en est pas expressément fait mention».

Mais cela nous ramène à cette vieille question: l'usage des technologies est souvent misogyne. Et dans le fond, cela fonctionne parce que nous vivons toujours dans nos sociétés sous le régime de ce vieux truc puant que les Anglo-Saxon·nes nomment slut-shaming, autrement dit le fait de traiter les femmes de salopes en leur reprochant leur liberté sexuelle. Avoir une vie sexuelle libre, c'est pour une femme se dégrader, perdre de sa valeur sociale, abîmer la jolie petite fleur qui pousse délicatement entre ses jambes et qu'elle doit garder pour n'être cueillie que par un seul homme.

Le pire avec ces deepfakes, c'est qu'il ne s'agit même plus de liberté sexuelle réelle. Il suffit de montrer le (faux) cul d'une femme pour l'humilier. Il suffit de la ramener à son cul, ses seins, sa vulve. Parce que, pour ces gens, montrer le corps nu d'une femme, c'est humiliant –idée qui repose évidemment sur la vieille pudibonderie de la «fille bien», «bonne à marier», si possible vierge et prude. Malheureusement, cette idée continue de perfuser nos sociétés.

Discréditer les adversaires

Évidemment, le deepfake porno peut également être utilisé à des fins politiques. C'est ce qui est arrivé à Rana Ayyub en avril 2018. Ayyub est une journaliste indienne qui a enquêté sur la corruption dans son pays. Jusqu'à ce qu'un faux porno la mettant en scène soit mis en ligne pour l'humilier et la réduire au silence. Elle a fait une dépression.

Dans les guerres culturelles actuellement menées, il s'agit rarement de débattre d'idées mais plutôt de discréditer les adversaires. C'est ce qui arrivé il y a quelques jours à Diane Saint-Réquier qui fait une série de vidéos pour France Télévisions sur la sexualité. Elle a été prise pour cible d'un cyberharcèlement. Rien de très neuf, me direz-vous. Elle est lesbienne, féministe et elle prend publiquement la parole, une équation qui de nos jours semble mener inéluctablement à se manger des tonneaux de merde.

Mais cette fois, les harceleurs ne se sont pas contentés de déformer ses propos, comme ils le font d'ordinaire. Ils les ont truqués. Ils ont créé de toute pièce un faux tweet semblant venir de son compte et disant en gros qu'il fallait lever le tabou de la pédophilie –propos que Diane n'avait évidemment jamais tenus. Puis ils ont dénoncé ces propos par l'intermédiaire de tous les faux comptes qu'ils ont à leur disposition afin de faire remonter le sujet, jusqu'à ce que d'autres gens s'en emparent.

À LIRE AUSSI Nous ne sortirons pas indemnes de la guerre menée contre la vérité

Elle a bien sûr démenti. Mais comment prouver qu'on n'a pas dit quelque chose? Comment prouver une non-existence? La guerre du fake est bel et bien lancée et les femmes en sont, encore, les premières victimes.

Ce texte est paru dans la newsletter hebdomadaire de Titiou Lecoq.