La construction sociale de la réalité est en pleine mutation et les deepfakes, ces capsules qui abusent du visage d’une personnalité publique — ou d’un simple individu — pour lui faire dire ou faire des choses auxquelles elle n’avait jamais pensé, en témoignent en prenant de plus en plus de place dans les nouveaux registres de l’imposture et de la manipulation des perceptions.

Lors des neuf premiers mois de l’année 2019, le nombre de ces « hypercheries » (traduction libre en français) a en effet explosé dans les univers numériques à travers le monde, passant d’environ 8000 fin 2018 à 14 700 cet automne, selon une mesure réalisée par la compagnie spécialisée en cybersécurité Deeptrace. Cette croissance est stimulée par la démocratisation des outils technologiques permettant la réalisation de ces faux qui déplacent les frontières de la vérité et qui forcent désormais la réflexion sur ces réalités alternatives, plutôt convaincantes, qui orientent désormais les croyances et parfois les gestes. « La définition historique d’une vidéo ou d’un document audio comme l’enregistrement de la réalité n’est plus valable », écrit Giorgio Patrini, président de l’entreprise, dans les premières pages d’un rapport sur l’état des deepfakes en 2019 consulté par Le Devoir.

« Le deepfake est la version la plus aboutie et la plus contemporaine des fake news [les fausses nouvelles] qui cherchent à dérouter l’attention des publics pour faire passer des éléments faux pour vrai, résume à l’autre bout du fil le chercheur en sciences de l’information et de la communication Marc Jahjah, qui enseigne à l’Université de Nantes, en France. Dans les prochaines années, cet art va se développer considérablement, poussé entre autres par des communautés qui bataillent sourdement les unes contre les autres pour orienter les perceptions des publics en usant de ruses de plus en plus perfectionnées pour les faire entrer dans des mondes alternatifs. »

Dans ces premières matérialisations, les « hypercheries » semblent surtout contaminer la sphère du divertissement en se concentrant principalement sur les contenus à caractère pornographique, qui composent 96 % de ces faux compilés par Deeptrace, dont le siège social est aux Pays-Bas. Dans les grandes lignes, il s’agit de scènes réelles dont les visages originaux ont été remplacés par ceux de personnalités politiques, d’acteurs ou d’artistes populaires à des fins de tromperie. Le stratagème vise autant à amuser qu’à dénigrer des personnes. Et il peut également cibler des inconnus, surtout des femmes, dans des cas de pornodivulgation — les anglophones parlent de « revenge porn » — à l’intérieur d’un couple, souligne le rapport.

Ces hypercheries pornographiques détournent des réalités en puisant principalement dans un bassin de sujets américains et britanniques. Toutefois, sur YouTube, neuf Canadiens ou Canadiennes en ont été victimes, a indiqué au Devoir M. Patrini sans oser entrer dans plus de détails. Vingt-cinq autres sont exhibés malgré eux dans des vidéos recensées sur des sites pornographiques.

Deeptrace estime à 134 millions les vues enregistrées pour ces vidéos truquées depuis le début de 2019, tous genres confondus.

Débuts timides en politique

Dans la sphère politique, ces vidéos hypertrompeuses sont encore loin d’une telle prolifération, mais elles exposent déjà le haut potentiel de duperie dont elles sont capables, comme l’ont constaté en avril 2018 et dans les mois suivants les 6,8 millions d’internautes qui ont cliqué sur une vidéo de Barack Obama dans laquelle il insultait Donald Trump. « Nous entrons dans une ère où nos ennemis peuvent faire croire que n’importe qui dit n’importe quoi à n’importe quel moment », y dit l’ex-président américain. « Ainsi, ils pourraient me faire dire des choses comme, je ne sais pas […] le président Trump est un gros connard ! »

La séquence a été orchestrée par le cinéaste Jordan Peele, qui révèle l’hypercherie dans les secondes suivant le propos surprenant. Elle a été réalisée avec la complicité d’un logiciel de manipulation d’images dans le but de sensibiliser les internautes à ces nouvelles formes de mystifications qui peuvent circuler en ligne.

« Il faut être vigilant, mais il ne faut pas surdramatiser non plus », dit Marc Jahjah, en expliquant que la technologie est « un pharmakon : un remède autant qu’un poison ». « Il est possible de créer des mondes parallèles sans mauvaises intentions. Les artistes peuvent se servir de ces outils pour créer. Mais bien sûr, sur des sujets toxiques ou lorsqu’on va chercher des niveaux élevés de réalité pour faire passer des messages nauséabonds ou remettre en question des réalités socialement établies, cela devient plus problématique et c’est là-dessus que notre attention devrait se concentrer. »

En juillet dernier, des groupes prorépublicains ont fait circuler une vidéo légèrement trafiquée de Nancy Pelosi dans laquelle la leader démocrate au Congrès américain s’exprimait en public en donnant l’impression d’être en état d’ébriété. Il s’agissait en fait d’une séquence originale dont la vitesse de déroulement a été modifiée à dessein pour induire l’effet. Le président Trump l’a fait rayonner dans sa twittosphère en la partageant à ses millions d’abonnés, déclenchant ainsi une énième vague d’indignation au sein de la classe politique.

« Le deepfake peut devenir le symptôme dans les cas litigieux de guerre de pouvoir et d’influence », fait remarquer M. Jahjah, qui appelle à bien saisir la nature de ces hypercheries pour mieux apprendre à les déjouer. « Le deepfake a toujours un temps d’avance sur notre capacité à l’identifier et à le reconnaître. Ces vidéos, en cherchant à rendre plausible un acte ou un propos totalement inventé, cherchent surtout à activer des routines cognitives et des gestuelles d’actions favorisant le partage de l’information qu’elles contiennent. Sachant cela, nous devrions prendre le temps de réfléchir à ces routines et développer dans nos réseaux des temps d’arrêt devant une information avant de la faire circuler. »

Dans son rapport, Deeptrace estime que cette supercherie par la vidéo met désormais les démocraties en danger, et ce, tant qu’il n’y aura pas de contre-mesures adoptées, peut-on lire. Une perception de la réalité que semble partager le département américain de la Défense. Il vient de développer un outil technologique pour scruter les univers numériques et y traquer les vidéos manipulées à des fins de harcèlement ou de désinformation. Le but est de baliser le terrain pour les enquêteurs numériques, qui vont être de plus en plus confrontés à des faussaires de vidéos, résumait la Technology Review du MIT il y a quelques mois.