Londres e Jerusalém | Financial Times

Vídeos e fotos de crianças sendo submetidas a abusos sexuais estão sendo compartilhadas abertamente e em grande escala no WhatsApp, e o serviço de mensagens criptografadas não consegue conter o problema, apesar de barrar milhares de contas todos os dias.

As revelações surgiram depois que pesquisadores de Israel advertiram o Facebook, que é proprietário do WhatsApp, em setembro de que era fácil encontrar e entrar em grupos de bate-papo nos quais —em alguns casos— até 256 pessoas compartilhavam imagens sexuais de crianças.

Esses grupos foram monitorados e documentados durante meses por duas instituições beneficentes de Israel dedicadas à segurança online, Netivei-Reshet e Screensaverz. O objetivo dos grupos era muitas vezes óbvio, com nomes como "cp" [de "child porn", ou pornografia infantil] e fotos explícitas usadas nas imagens de perfil.

Esses identificadores não eram criptografados, e eram visíveis publicamente para anunciar conteúdo ilegal, mas os sistemas que o WhatsApp disse ter implantado não conseguiram detectá-los.

Uma revisão dos grupos pelo Financial Times rapidamente encontrou vários que ainda estavam extremamente ativos nesta semana, muito depois que o WhatsApp foi advertido sobre o problema pelos pesquisadores.

"É um desastre: esse tipo de material antes era encontrado principalmente na dark web, mas hoje está no WhatsApp", disse Yona Pressburger, do Netivei-Reshet, referindo-se a partes da internet que são propositalmente ocultas das máquinas de busca normais e que os criminosos usam para esconder suas atividades.

Um porta-voz do WhatsApp disse que "tem uma política de tolerância zero para abusos sexuais de crianças" e "proíbe ativamente contas suspeitas de compartilhar esse conteúdo repulsivo".

O app de mensagens também disse que rastreou os nomes de grupos e perfis do WhatsApp na tentativa de identificar pessoas que compartilham esse tipo de material ilegal. Tais técnicas levaram a plataforma a proibir aproximadamente 130 mil contas nos últimos dez dias, de sua base de usuários de cerca de 1,5 bilhão de usuários.

Mas as descobertas das ONGs ilustram um problema maior: a criptografia ponta-a-ponta do WhatsApp, destinada a proteger a privacidade, não permite que a empresa veja o conteúdo das mensagens que os usuários trocam, dificultando monitorar quando ocorrem abusos de imagens infantis. Ela também pode impedir que a polícia descubra atividade ilegal.

Com os usuários de serviços de mensagens criptografadas como WhatsApp, iMessage da Apple, Telegram e Signal hoje chegando a bilhões, a pressão política subiu nos EUA e no Reino Unido para que as companhias concedam acesso a investigadores criminais.

O WhatsApp, comprado pelo Facebook em 2014 por US$ 22 bilhões, acabou de implantar a criptografia ponta-a-ponta para mensagens em 2016.

Em consequência, mesmo que o Facebook quisesse, não poderia aplicar as mesmas ferramentas que usa para retirar imagens e textos ilegais de seu site principal de rede social e do programa de compartilhamento de fotos Instagram, do qual também é proprietário.

Nesses serviços, o software automaticamente busca palavras-chaves e imagens de nudez, pornografia e violência. O Facebook também emprega 20 mil moderadores de conteúdo, muitas vezes terceiros com baixos salários, que verificam manualmente as postagens.

Em comparação, o WhatsApp só tem 300 funcionários ao todo, e muito menos recursos dedicados a monitorar atividade ilegal.

Mesmo assim, Hany Farid, professor de ciência da computação em Berkeley que desenvolveu o sistema PhotoDNA, usado por mais de 150 companhias para detectar imagens de abuso de crianças na internet, disse que o Facebook poderia fazer mais para se livrar do conteúdo ilegal no WhatsApp.

"Os crimes contra crianças estão ficando cada vez piores, as crianças são cada vez mais jovens e os atos, mais violentos. Tudo está sendo alimentado por essas plataformas", disse ele. "O problema é profundo nessas empresas. É o modelo 'ande depressa e quebre coisas'."

Autoridades policiais notaram uma mudança em como os pedófilos estão usando a tecnologia para mascarar suas atividades.

"Estamos vendo um aumento no uso de apps de mensagens criptografadas no lado do ofensor, e isso representa questões significativas para a polícia em termos de rastreabilidade e visibilidade", disse Cathal Delaney, chefe da equipe de combate ao abuso sexual de crianças online na Europol.

O WhatsApp esteve no centro de uma investigação em 2017 liderada pela polícia espanhola, chamada Operação Tantalio, que levou à prisão 38 pessoas em 15 países. A investigação começou em 2016, quando investigadores espanhóis identificaram dezenas de grupos no WhatsApp que faziam circular material de exploração sexual de crianças. Então eles localizaram os números de celular usados para identificar os indivíduos envolvidos, assim como os suspeitos de produzir as imagens.

Por mais que a Operação Tantalio parecesse ter sucesso, a polícia luta globalmente para conter a maré de materiais sexuais infantis online.

As ONGs israelenses tropeçaram no problema do WhatsApp em agosto, depois que um rapaz ligou para sua linha direta para relatar que foi exposto a pornografia no serviço de mensagens.

Na loja Google Play para smartphones Android, há dezenas de apps gratuitos que coletam links para grupos do WhatsApp. Através desses aplicativos, as ONGs encontraram amplo material de abuso de crianças e começaram a registrar o que viam.

"Esforçamo-nos para documentar do modo mais amplo possível, para provar que não é uma atividade menor", escreveu a ONG em um relatório. "O tempo total passado verificando isso foi de aproximadamente 20 dias, com vários equipamentos diferentes. Nesse período, monitoramos continuamente dez grupos ativos, e dezenas de outros em intervalos curtos."

As ONGs enviaram email a Jordana Cutler, chefe de políticas do Facebook em Israel, no início de setembro para advertir a empresa sobre suas descobertas. Elas pediram para se reunir com o Facebook quatro vezes, segundo emails vistos pelo Financial Times, mas Cutler não respondeu aos pedidos.

Em vez disso, enviou uma resposta pedindo provas —que totalizaram vários gigabytes de dados e mais de 800 vídeos e imagens— para que fossem enviadas a equipes fora do país para investigação. Ela também perguntou se as ONGs tinham procurado a polícia e sugeriu que trabalhar com a polícia seria "a maneira mais eficaz". Cutler não transmitiu a advertência das ONGs ao WhatsApp.

As ONGs não quiseram enviar links porque queriam encontrar o Facebook diretamente para discutir o que consideravam um problema amplo e persistente. Elas também levaram suas evidências à polícia israelense e abriram uma queixa, e contataram um membro do Parlamento israelense que supervisiona uma comissão sobre segurança das crianças.

Frustradas pelo que consideraram uma inação por parte do Facebook, as ONGs elaboraram um relatório de 14 páginas sobre suas descobertas e o levaram ao FT por um intermediário, Zohar Levkovitz, conhecido executivo de tecnologia israelense.

Levkovitz fundou recentemente uma startup chamada AntiToxin Technologies, que trabalha para desenvolver ferramentas para proteger as crianças na internet. Não há relação financeira entre sua companhia e as ONGs, embora a empresa de Levkovitz tenha interesse em chamar a atenção para questões de segurança levantadas pelo uso de tecnologia por crianças. "Garantir a segurança das crianças online exige atenção imediata", disse o empresário.

De sua parte, o Facebook disse que Cutler seguiu o procedimento correto para lidar com a informação das ONGs. "Nós nos oferecemos para trabalhar junto com a polícia de Israel para lançar uma investigação para deter esse abuso", disse uma porta-voz.

O FT conseguiu verificar e corroborar a principal descoberta das ONGs, de que é fácil encontrar grupos no WhatsApp que são usados para trocar material de abuso infantil.

Por exemplo, um grupo de bate-papo chamado "Kids boy gay" estava ativo no início da semana, com 256 pessoas usando números de telefone de países como Índia, Paquistão, Argélia e EUA. No grupo, as pessoas compartilhavam fotos e vídeos e faziam pedidos específicos de "vídeos cp".

O WhatsApp fechou o grupo depois de ser contatado pelo FT e baniu todos os seus participantes.

Perguntado por que o Google permitia que aplicativos contendo links que promovem imagens sexuais de crianças continuem na loja Google Play, um porta-voz da firma disse: "Se identificamos um app que promove esse tipo de material que nossos sistemas ainda não bloquearam, nós o delatamos às autoridades competentes e o retiramos de nossa plataforma".

Especialistas em tecnologia sugeriram que o WhatsApp poderia desabilitar a criptografia em grupos acima de certo tamanho, de modo a monitorar o conteúdo compartilhado.

O professor Farid disse que a companhia também poderia implementar uma criptografia mais fraca para que pudesse vasculhar os bate-papos no WhatsApp por imagens de abusos de crianças já catalogadas no sistema PhotoDNA, que ele desenvolveu com a Microsoft há uma década. O sistema escaneia cada imagem carregada em um site para ver se ela se compara com alguma outra em um banco de dados de milhões de imagens conhecidas de abusos de crianças, administrado pelo Centro Nacional de Crianças Desaparecidas e Exploradas nos EUA.

Se o WhatsApp usasse criptografia parcialmente homomórfica, poderia escanear as imagens conforme são carregadas para ver se se comparam. O professor Farid disse que é "incrivelmente frustrante" que as companhias tecnológicas não tenham desenvolvido maneiras de melhorar o PhotoDNA ou modificá-lo para ambientes criptografados ou a dark web.

"Todos nós juntos poderíamos superar isso", disse ele. "As empresas basicamente não fizeram nada."