«Le président Trump est une grosse merde.» En ce 17 avril 2018, Barack Obama ne mâche pas ses mots. Drapeau américain en arrière-plan, il s’adresse à ses compatriotes dans une courte vidéo. Le ton est solennel, le regard ferme, les mouvements de main fluides… Sauf qu’il n’a, de fait, jamais prononcé cette phrase. Quelques secondes plus tard, Jordan Peele, le réalisateur de Get Out, tombe en effet les masques : c’est lui qui est derrière la supercherie. Depuis le début, sa voix et ses gestes sont calibrés sur ceux de l’ancien président américain. Montage grossier, banale imitation ? Pas vraiment : cette fois, le trucage – réalisé avec le site Buzzfeed – est absolument indiscernable. Voyez plutôt.

A l’origine de cette parfaite impression de réalité, le deepfake, une technique de manipulation vidéo qui permet, moyennant l’usage d’un bon algorithme, de truquer des vidéos de manière totalement réaliste. Le terme deepfake est lui-même dérivé de deep learning (ou «apprentissage profond»), qui désigne un type d’intelligence artificielle où la machine «apprend» par elle-même, à partir de sa propre observation de divers phénomènes – contrairement aux algorithmes de programmation, qui se contentent d’exécuter des ordres donnés. Appliquée au secteur de la vidéo, la technologie se transforme en outil de postproduction hyper-performant.

Faux pornos

Depuis quelques mois, circulent notamment des vidéos pornographiques (plus ou moins bien) truquées, où les visages des actrices professionnelles sont remplacés par ceux de stars hollywoodiennes comme Gal Gadot, Daisy Ridley, ou encore la popstar Taylor Swift. Pornhub, Twitter et Reddit ont dans la foulée annoncé les interdire, mais leur propagation continue. Récemment, une entreprise du secteur a même annoncé pouvoir insérer ses clients dans leurs vidéos favorites, accompagnées des actrices «de leur choix». En dehors du champ pornographique, les avancées sont aussi impressionnantes : il y a quelques jours, des chercheurs de l’université de Berkeley, en Californie, ont publié une vidéo (accompagnant leur étude) dans laquelle des volontaires apparaissent en train de réaliser des mouvements de danse qu’ils n’ont, pourtant, jamais effectués.

Derrière un aspect ludique, la technologie inquiète. «Les risques potentiels sont extrêmement vastes et difficiles à contre-agencer, analyse Fabrice Epelboin, enseignant à Sciences-Po Paris et spécialiste de l’astroturfing (technique de manipulation numérique visant à donner l’impression d’un comportement spontané et de masse). On peut imaginer, le jour où cette technologie sera vraiment à la portée de n’importe qui, ce que cela pourrait donner en termes de bruits de couloir dans un lycée, suite à la circulation d’une vidéo truquée, par exemple. On pourrait vraiment assister à des catastrophes.» D’autant que les réseaux sociaux, où se répandent les vidéos deepfakes les plus problématiques, semblent avoir un train de retard. «La question n’est pas de savoir s’ils vont agir par rapport aux deepfakes, la question est : quand ? Pour l’instant, leur action est plutôt faible», commente le spécialiste Sam Woolley auprès de CNN. Même inaction côté politique, en tout cas en Europe : «Je n’ai rien vu passer en la matière, constate Marta Arniani, consultante en recherche et innovation technologique, experte des politiques européennes. On en est encore aux fake news et à la RGPD.»

«Menace pour la démocratie»

Car le problème renvoie aussi, évidemment, à la question de la fiabilité des informations publiées et partagées sur Internet. «Le deep fake n’est qu’une illustration supplémentaire de l’ère du "plus rien n’est crédible". La société patauge déjà dans les fake news et dans un rejet de toute forme de vérité», poursuit Fabrice Epelboin. Les progrès en la matière semblent fulgurants : CNN raconte, par exemple, qu’un chercheur à l’université d’Etat de New York à Albany, Siwei Lyu, a publié, en juin, une recherche présentant une technique pour détecter les fausses vidéos… Technique dont se sont aussitôt emparés les créateurs de vidéos deepfakes pour perfectionner leurs outils.

A terme, soulignent les spécialistes, le risque est notamment que l’idée même de preuve «par l’image» disparaisse, rendant ainsi difficile la distinction entre une vidéo originale et une vidéo retouchée. D’un point de vue technique, le phénomène risque d’être, quoi qu’il arrive, difficile à endiguer. «Dans son essence, ce type de montage fait partie d’Internet depuis sa naissance», rappelle Marta Arniani. Faudra-t-il, alors, éduquer son propre regard, et s’habituer à prendre chaque vidéo avec des pincettes ? «Cette solution a aussi un coût énorme», prévient Robert Chesney, auteur d’une étude sur le sujet. Et de s’expliquer : «Avec ma coautrice Danielle Citron, nous avons appelé cela le "dividende du menteur" : plus une société apprend à être sceptique, plus il devient facile pour quelqu’un comme Donald Trump de remettre en question des faits pourtant irréfutables.»