Prenez note que cet article publié en 2018 pourrait contenir des informations qui ne sont plus à jour.

Un texte de Matthieu Dugal, animateur à La sphère



Nous sommes le 3 octobre 2018. Il y a quelques jours, les Québécois ont porté au pouvoir, et pour la première fois de leur histoire, un gouvernement issu de la Coalition québécoise libérale solidaire. C’est la première apparition télévisée devant public du nouveau duo de premiers ministres du Québec, Françoise Legault et Philippe Lisée-Dubois. Le discours qu’ils prononcent devant un parterre d’invités réunis dans un grand hôtel de la capitale est retransmis en direct sur les grandes chaînes de télévision et, bien sûr, sur le web.

Mais il y a un mais. Au moment de s’avancer vers l’estrade, les chefs de ce nouveau parti sont invisibles sur les écrans des internautes et des téléspectateurs. Bien que la retransmission ne semble pas compromise, des dizaines, puis rapidement des centaines de milliers, puis des millions de Québécois ahuris ne voient plus l’image de leurs nouveaux chefs, mais bien celle de… Donald Duck. Un Donald Duck qui y va de son meilleur « Hiyya! Hiyya Folks! » en arrivant à la tribune.

Bien que les responsables de la transmission du discours tentent de couper le signal de l’émission, il leur est impossible de le faire, car on a piraté leur console. On apprend quelques jours plus tard que ce fait d’armes est le fruit du travail d’un groupe de terroristes zen qui veulent déstabiliser l’ordre établi en utilisant le moins de force possible. Et ce n’est que le début.

Ce que vous venez de lire est de la fiction. À peu de choses près, il s’agit de la saisissante scène d’introduction du roman de science-fiction 29 jours avant la fin du monde, écrit par Gérald Messadié en… 1995. C’est un excellent bouquin que je ne saurais trop vous recommander.

Gérald Messadié se croyait infiniment futuriste il y a 20 ans en imaginant un monde où l’on pourrait remplacer l’image de quelqu’un à l’écran par celle d’un personnage de bande dessinée. Aujourd’hui, l’intelligence artificielle nous permet de coller le visage d’une ex sur une scène vidéo dégradante que l’on peut diffuser à loisir. Matthieu Dugal

Deepfake, la genèse

En septembre 2017, sur le forum Reddit, là où naîssent un nombre incalculable de tendances qui enflamment ensuite le web, un utilisateur nommé Deepfakes met en ligne des vidéos stupéfiantes où l’on voit des scènes pornographiques sur lesquelles les visages des actrices sont remplacés par des visages de comédiennes connues.

Et même si nous sommes loin de la HD, encore moins du 4K, le résultat sur un écran de cellulaire est plutôt confondant. Nous avons vraiment l’impression d’être face à des films inédits où des actrices célèbres se seraient livrées à des scènes pornos pour le moins explicites.

Deepfakes, qui refuse de révéler son identité, mentionnant qu’il est un programmeur sans spécialisation particulière en intelligence artificielle, met en ligne ses « créations » sur un sousreddit nommé CelebFakes, où l’on trouve déjà des photos manipulées de visages de femmes célèbres plaquées sur des corps nus.

Bientôt, un sousreddit consacré aux seuls films pornos faits avec de l’intelligence artificielle est créé. Son nom? Deepfakes. Depuis, le mot « deepfake » est devenu un nom par lequel on désigne cette nouvelle « technique ».

Ces scènes, qui font paraître les montages photos comme des vestiges d’une époque révolue, mettent en « vedette » des visages connus comme Taylor Swift, Aubrey Plaza (Scott Pilgrim), Maisie Williams (Game of Thrones), Gal Gadot (Wonder Woman), Ariana Grande et même… Michelle Obama. Lundi dernier, on pouvait même voir une scène avec Melania et Ivanka Trump s’adonnant à des ébats dans leur plus simple appareil.

Pour le moment, aucune célébrité québécoise ne semble avoir fait l’objet de telles manipulations, mais on peut raisonnablement croire qu’il ne s’agit que d’une question de temps. Pensez à une jeune fille célèbre d’ici et les chances que vous la voyiez passer toute nue dans toutes les positions imaginables sont on ne peut plus grandes.

Répétons que les créateurs de ces films ne sont pas des gens ayant accès aux outils perfectionnés de studios d’effets spéciaux, mais bien de simples internautes –- majoritairement de sexe masculin, il va sans dire – ayant téléchargé quelques programmes dont l’utilisation ne requiert presque pas d’aptitudes techniques, ni de jugement d’ailleurs.

Le sousreddit qui héberge ces créations est passé de 15 000 membres à la fin de janvier à environ 90 000 juste avant que Reddit ne le supprime, mercredi après-midi. D’ailleurs, le sousreddit CelebFakes a lui aussi été supprimé.

Comment ça marche?

Tout a commencé en 2015, quand Google a ouvert le code source de son outil d’intelligence artificielle Tensorflow. Cet outil, basé sur des techniques d’apprentissage profond, se révèle entre autres extrêmement efficace en matière de traitement d’images de visages.

Si vous avez utilisé une application de Google récemment (le moteur de recherche ou encore votre voix pour activer Google Home, par exemple), vous avez utilisé Tensorflow. En ayant rendu le code source il y a deux ans, Google permet à des utilisateurs d’en paramétrer les réglages afin de l’optimiser pour des tâches particulières.

Et c’est ce qu’a fait Deepfakes en mettant au point son algorithme. Quelques jours après les premières mises en ligne de ce type de pornographie, un autre internaute a mis en ligne sur Reddit une application nommée Fake App. Avec Fake App, le deepfake est maintenant à la portée du plus grand nombre. Pour goûter toute la sinistre ironie de la chose, notons que le programme sur lequel Google a bâti Tensorflow s’appelle « Distbelief », un mot-valise créé avec les mots « distributed » et « belief », qui voudrait dire en français à la fois « croyance distribuée » et « incrédulité ». Ça ne s’invente pas.

Agrandir l’image ﻿ (Nouvelle fenêtre) ﻿ ﻿ L'outil Fake App analyse des centaines d'images afin de remplacer un visage dans une vidéo. Photo : Capture d'écran YouTube

Voici comment on procède pour créer un de ces films : pour remplacer un visage, le programme d’intelligence artificielle « étudie » une séquence donnée d’un film, image par image. Puis, elle analyse environ un millier d’images (c’est semble-t-il le nombre idéal de photos avec lesquelles le programme peut apprendre) d’une personne dont on veut coller le visage sur le film. La « magie » de cet algorithme? Il conserve les expressions du visage du film original tout en leur substituant les traits du visage de la personne que l’on veut « deepfaker ».

Attention, le processus peut-être très long. Selon la puissance de calcul – une carte graphique (GPU) sera beaucoup plus rapide qu’un microprocesseur classique (CPU) –, une courte séquence pourra vous prendre entre 4 et 7 heures de calcul.

Des deepfakes pour rire?

Un peu à la manière des animations psychotroniques qu’il est maintenant possible de faire sur les stories d’Instagram, le deepfake n’est pas que pornographique dans son essence. Un programmeur expliquait vendredi dernier sur la plateforme Medium comment il avait réussi à substituer le visage de sa femme à celui d’Anne Hathaway, interviewée au Tonight Show. Mignon.

Des petits comiques se sont aussi servis de cette technologie pour incruster le visage de Nicolas Cage – déjà une cible habituelle du monde des mèmes sur Internet – sur différents extraits de films, dont plusieurs personnages féminins. Le résultat est franchement hilarant.

Agrandir l’image ﻿ (Nouvelle fenêtre) ﻿ ﻿ Le visage de Nicholas Cage a remplacé celui de l'actrice Amy Adams dans une séquence tirée du film «L'Homme d'acier». Photo : Capture d'écran YouTube

L’intelligence artificielle a déjà été utilisée dans un but semblable. L’été dernier, des scientifiques de l’Université de Washington ont révélé comment ils avaient réussi à recréer des séquences vidéo inédites de Barack Obama à qui ils avaient fait dire (sur vidéo) des choses qu’il n’avait jamais prononcées. Mais il s’agissait de scientifiques, dans un labo, avec des outils pas vraiment à la portée de tous. Moins de six mois plus tard, avec une application téléchargée sur le coin d’une table, le Web réussit à faire mieux, ou pire, c’est selon.

Déjà, sur Reddit, des utilisateurs soulignent comment cette nouvelle application de l’intelligence artificielle, fabuleuse dans son principe, pourrait être utilisée à des fins de cyberintimidation. Et – encore une fois, pourrions-nous ajouter – ce sont les femmes qui écopent en premier. Même les plateformes de diffusion de contenu pornographiques, pourtant reconnues comme étant moins regardantes sur la nature du contenu diffusé, répertorient les deepfakes comme étant une forme de revanche pornographique (un contenu sexuellement explicite qui met en scène une personne que l’on veut intimider dans des vidéos sexuellement explicites, souvent employé par des ex-conjoints).

Après la publication de son plus récent ouvrage, Homo Deus, l’historien et essayiste Yuval Noah Harari soulignait qu’une des caractéristiques du monde qui s’en vient (s’il n’est pas déjà arrivé) sera l’effondrement de plus en plus évident des frontières qui existent entre ce que nous appelons « réalité » et « fiction ».

Quelques mois après la mise en ligne de Fake App, on ne peut que lui donner un peu plus raison.

Pour le moment, il est assez facile de déceler le vrai du faux dans ces vidéos, mais rappelons aussi que la technologie n’a que deux mois d’existence.

Soulignons également qu’on trouve encore aujourd’hui des gens qui mettent en doute l’efficacité des vaccins, malgré la preuve en béton armé de centaines de millions de gens qui ont évité depuis un siècle de mourir de la variole ou de la rougeole. Des gens qui croient que la Terre est plate, même après les photos de la Tesla en orbite autour de la Terre avant hier, d’autres qui pensent qu’on nous intoxique avec des produits chimiques largués dans le ciel ou que le 11 Septembre est un coup du complexe militaro-industriel et qu’aucun avion n’est tombé sur le Pentagone.

Comme le relate souvent mon collègue Jeff Yates sur cette plateforme, nous avons aujourd’hui tous les outils pour être capables de déceler la provenance et la fabrication des fausses nouvelles. Le problème, c’est que les vraies nouvelles qui débusquent les fausses nouvelles se propagent moins efficacement que la fausse information.

Pourquoi? Cela a peut-être un lien avec notre volonté de croire à tout prix, malgré la logique, malgré les observations, malgré les preuves. Comme l’a dit si tristement Éric Duhaime il y a quelque temps, « mieux vaut de la mauvaise information que pas d'information pantoute ».

Et si le problème ne résidait justement pas dans les réseaux de neurones profonds d’un serveur, mais dans nos propres neurones?