Pornô falso (ou fake porn) consiste em manipular um vídeo ou uma foto e colocar o rosto de outra pessoa no corpo de uma estrela pornô. Nos últimos meses, um grupo crescente de usuários do reddit tem usado algoritmos de machine learning para colocar o rosto de celebridades em cenas de filmes adultos — como este que abre o post com a atriz Gal Gadot. E agora o negócio escalou para o que parece ser a fase mais pessoal e nojenta dessa técnica.

• A principal busca dos brasileiros no PornHub em 2017 foi Overwatch

• Filme pornô é exibido em outdoor eletrônico durante congestionamento

Nesta sexta-feira (26), o Motherboard reportou que usuários no Discord (app para comunidade de gamers) e no Reddit estão pedindo ajuda para fazer falsos vídeos pornô com ex-parceiros e crushes.

Uma pessoa chegou a dizer como eles criaram um desses arquivos com uma ex-colega de classe. “Eu fiz um vídeo bem bom de uma garota que estudou comigo na escola usando apenas 380 imagens que eu peguei do Facebook e do Instagram dela”, informou um usuário no Discord, segundo uma captura de tela obtida pelo Motherboard.

Embora essas últimas notícias envolvendo vídeos pornô falsos sejam particularmente preocupantes, não surpreende que isso poderia acontecer. É a mistura de comunidades tóxicas online, invasão de privacidade, abuso de ferramentas de manipulação online e pornô de vingança.

Pornô falso não é algo novo: as pessoas têm explorado ex-parceiros e celebridades online há alguns anos usando softwares de edição como o Photoshop. Porém agora ferramentas mais poderosas, como machine learning, permitem que usuários criem filmagens falsas realistas em questão de horas e com algumas imagens da vítima. E é evidente que este não é um problema de nicho: o subreddit The Deepfakes, uma comunidade dedicada a criar vídeos pornô falsos e outras manipulações, tem mais de 30 mil inscritos.

Lógico, não é simples como baixar um app ou uma ferramenta web e fazer o upload de fotos roubadas do Facebook. Para fazer tais transformações é preciso reunir um monte de imagens. Geralmente, os usuários têm usado uma ferramenta de código aberto que busca por fotos da vítima que estejam publicamente disponíveis online. Depois eles buscam atores ou atrizes pornô que se pareçam com a pessoa.

Embora esta tecnologia seja impressionante, todas as partes envolvidas nesse caso são péssimas. Nós já vimos em outras ocasiões campanhas de assédio e invasões grosseiras de privacidade, além disso a possibilidade de coletar dados de fotos públicas do Facebook já é conhecida. Ainda que veículos de comunicação tenham alertado sobre o uso dessas técnicas para a confecção de notícias falsas, é importante também ressaltar que esta tecnologia pode desencadear a ação de abusadores e a execução de pornô de vingança.

O que estamos vendo não é necessariamente uma prática nova, mas algo previsível dadas as consequências de colocar pessoas mal-intencionadas em contato com tecnologias sofisticadas. É uma prática contínua emblemática, graças à inteligência artificial, que pode continuar a prosperar da forma como foi destinada.

Foto do topo: Pornô falso em que colocaram o rosto da atriz Gal Gadot no lugar de uma atriz pornô. Crédito: Reprodução