Motherboard s'est penché sur cette application qu'il qualifie d'horrible. Elle utilise l'intelligence artificielle afin de « déshabiller » les femmes. En l'occurrence, il s'agit surtout de créer une fausse image en gardant leur tête et la position de leur corps.

Pour rappel, des vidéos « deepfakes » avec des têtes de personnalités placées sur le corps d'autres personnes (notamment des acteurs/actrices pornos) existent depuis longtemps. Les femmes étaient principalement ciblées, avec DeepNude la situation ne fait que s'aggraver. Le logiciel est en vente pour 50 dollars avec « une offre promotionnelle ».

Les réactions ne se sont pas fait attendre : « C'est absolument terrifiant [...] Désormais, n'importe qui peut se trouver victime de revenge porn sans avoir jamais pris de photo nue. Cette technologie ne devrait pas être accessible au public », affirme Katelyn Bowden, fondatrice et dirigeante d'une association luttant contre le revenge porn. « C'est une atteinte à la vie privée sexuelle [...] Oui, ce n'est pas votre vagin, mais… d'autres pensent qu'ils vous voient nue », lâche une professeure de droit.

Interrogé par nos confrères, le créateur de l'application explique qu'elle se base sur pix2pix, un algorithme open source développé par des chercheurs en 2017. Plus de 10 000 photos de femmes nues ont été utilisées pour entraîner l'algorithme.

Il ajoute qu'il espère proposer prochainement une version pour les hommes. « Je pense que ce que vous pouvez faire avec DeepNude, vous pouvez très bien le réaliser avec Photoshop [...] si quelqu'un a de mauvaises intentions, DeepNude ne change pas grand-chose… Si je ne l'avais pas fait, quelqu'un d'autre l'aurait fait. », ajoute-t-il pour se dédouaner.