Temps de lecture: 5 min — Repéré sur The Verge

Il y a deux semaines, Chrissie Chambers remportait son procès dans l'affaire de «revenge porn» l'opposant à son ex-petit-ami, marquant un précédent dans l'histoire judiciaire de l'Angleterre et du Pays de Galles. Les condamnations demeurent extrêmement rares contre ce type de crime, et les nouvelles possibilités offertes par l'intelligence artificielle pourraient rendre encore plus difficile les suites judiciaire de ces dossiers plus que délicats.

Fake porn, face-swap, swap-porn...

Le revenge porn consiste à diffuser une vidéo à caractère sexuel d'une personne sans son consentement. Depuis quelques semaines est apparu sur la toile un nouveau type de fake porn (ou porno truqué): le swap-porn –qui a bientôt trouvé une sous-catégorie fertile appelée deep-fake.

Cela fonctionne comme le face-swap («échange de visages»), un logiciel accessible via plusieurs applications telles que Snapchat, qui permet d'échanger les visages de deux personnes, mais employé dans des configurations sexuelles (swap-porn), et appliqué à des célébrités (deep-fake).

À partir d'un algorithme utilisant un logiciel de deep learning comme Keras, il permet donc de substituer au visage figurant initialement sur une vidéo pornographique, celui de quelqu'un d'autre. Et de faire croire à une vidéo authentique, pour peu que la manoeuvre soit bien exécutée.

«La pornographie photoshoppée est déjà un outil commun de harcèlement déployé contre les femmes sur Internet; une vidéo rend la violation beaucoup plus active, et son statut falsifié plus difficile à identifier», écrit The Verge.

L'apparition de ces nouvelles technologies numériques pose la question de l'encadrement légal du genre de pratiques qui en découlent: est-ce illégal de créer un faux porno avec le visage d'une personne non consentante? Quels recours légaux sont possibles pour les victimes?

À LIRE AUSSI Un ado britannique sur deux est concerné par le «revenge porn»

Porter plainte pour diffamation?

Les solutions les plus simples sont de porter plainte pour diffamation, atteinte à la vie privée dans le cas d'une violation du droit à l'image, ou de revendiquer un copyright.

Dans le code pénal français, l'article 226-8 punit «le fait de publier, par quelque voie que ce soit, le montage réalisé avec les paroles ou l'image d'une personne sans son consentement, s'il n'apparaît pas à l'évidence qu'il s'agit d'un montage ou s'il n'en est pas expressément fait mention».

Aux États-Unis, s'il existe bien une loi contre le porno non consenti, le cas du swap-porn pourrait être plus délicat à traiter, dans la mesure où la loi repose préalablement sur le principe d'une violation de la vie privée. Or, comme le relève Wired, si «le swap-porn peut être profondément et personnellement humiliant pour les personnes dont on utilise la ressemblance, ce n'est techniquement pas un problème de vie privée. [...] Vous ne pouvez pas poursuivre quelqu'un pour avoir exposé les détails intimes de votre vie quand ce n'est pas votre vie qu'ils exposent».

S'ajoute à cela le fait qu'un procès pour diffamation est difficile à gagner. Eric Goldman, professeur de droit à l'université de Santa Clara, souligne que cela peut s'avérer très coûteux pour le plaignant, et potentiellement très compliqué si la personne ayant diffusé cette vidéo est anonyme, ou à l'étranger.

Les archives inébranlables d'Internet

À cela s'ajoutent des dégâts contre lesquelles la loi ne peut elle-même pas grand-chose:

«Il est quasiment impossible d'effacer une vidéo une fois qu'elle a été publiée sur Internet. Si vous cherchez la baguette magique qui pourrait effacer cette vidéo de façon permanente, elle n'existe probablement pas.»

Au regard du premier amendement, demander la suppression du contenu pourrait même constituer une violation de la Constitution américaine, dont le principe de liberté d'expression exclut pourtant les messages pornographiques ou l'incitation à la violence, avance le professeur:

«D'autres incursions dans le premier amendement, telles que la diffamation ou les droits concernant la vie publique ou privée, sont structurées pour qu'il y ait un équilibre entre les considérations du premier amendement et les principes généraux relatifs aux délits ou aux crimes. Il appartiendra donc au plaignant de trouver une doctrine en dehors du premier amendement, ou d'expliquer en quoi sa revendication n'est pas soumise à la protection du premier amendement.»

Les plateformes mêmes sur lesquelles sont hébergées ces vidéos pourraient bien n'être d'aucune aide aux victimes devant la justice, souligne The Verge. Elles peuvent décider –ou non– de supprimer les contenus, mais ne pas être tenues responsables de ceux postés par une tierce partie.

Invoquer une violation de la propriété intellectuelle

Le propriétaire de la vidéo originale (donc non modifiée) pourrait cependant réclamer un copyright. En France, l'article L-122-4 du Code de la propriété intellectuelle indique bien que «toute représentation ou reproduction intégrale ou partielle faite sans le consentement de l'auteur ou de ses ayants droit ou ayants cause est illicite. Il en est de même pour la traduction, l'adaptation ou la transformation, l'arrangement ou la reproduction par un art ou un procédé quelconque».

À cet égard, une plateforme qui héberge une vidéo enfreignant le droit d'auteur doit la supprimer, au même titre que celui qui l'a publiée. En tous les cas, il faudrait que le premier «réalisateur» porte plainte, ce qui est loin d'être garanti...

Publiées massivement sur Reddit au début, les deep-fakes ont progressivement migré sur PornHub, puis, rapporte The Verge, sur un site spécifiquement dédié, qui se définit assez fallacieusement comme publiant de l'«art satirique»:

«Nous respectons toutes les célébrités présentées. L'évident swap-porn truqué n'est en aucun cas censé être avilissant. C'est de l'art qui célèbre le corps humain et la sexualité», avance-t-il comme justification.

Deux ou plus

L'histoire se complique quand on prend en considération le fait que ces vidéos impliquent au minimum deux personnes: le visage rajouté et le corps présent sur la vidéo d'origine.

Les acteurs qui figurent sur la vidéo authentique n'ont souvent pas les droits de propriété sur les images tournées. Surtout, leur corps n'est la plupart du temps pas reconnaissable, à moins de porter un signe distinctif connu du grand public. Dans la mesure où on ne peut pas les reconnaître, faire valoir leurs droits concernant une possible diffamation sera d'autant plus ardu.

Du porno au politique, entre fake porn et fake news

La technologie utilisée pour les deep-fakes pourrait surtout se révéler être une mine à fake news. Pour peu que le face swap quitte les corps des acteurs porno pour s'appliquer à ceux de politiciens ou de personnes publiques, on serait très vite confrontés à des trucages de plus en plus sophistiqués et difficiles à discréditer aux yeux du grand public. Et souvent, les images frappent davantage que les démentis.

À LIRE AUSSI Pourquoi certains croient aux fake news en dépit de toute rationalité

Alors que le swap-porn s'attaque à l'intimité des personnes impliquées, la pratique relève le plus souvent du revenge porn lorsqu'elle vise des personnes privées. Mais dès lors qu'elle met en scène des célébrités et vise une audience bien plus large à travers les deep-fakes, elle se retrouve prise dans une économie du clic, qui participe à cet égard à la même logique que les fake news.

L'économiste Philippe Askenazy réaffirmait hier dans Le Monde que les fake news, avant d'être des relais idéologiques, sont surtout un marché: «Avant de restreindre les libertés au nom de dangers non démontrés, essayons donc de tuer ce marché», concluait-il.