Como é que o Facebook gere temas sensíveis como a violência, o discurso de ódio, a pornografia, o terrorismo, o racismo ou a automutilação? O jornal britânico The Guardian analisou mais de 100 manuais internos da rede social, entre tabelas e organogramas, para tentar responder a essas perguntas e concluiu que existem incongruências nas directivas e muita dificuldade da parte dos moderadores em decidir no momento, perante o volume de trabalho a que são submetidos.

Os moderadores – que decidem o que continua publicado – têm apenas dez segundos, em média, para tomar a decisão de retirar ou não conteúdos, perante critérios que nem sempre são claros e coerentes. Com quase dois mil milhões de utilizadores, o Facebook permite, por exemplo, que sejam transmitidas ao vivo tentativas de automutilação, com a justificação que não quer censurar ou punir pessoas que já estão em perigo. Quanto a vídeos de mortes violentas, é proclamado que nem sempre têm de ser apagados. O princípio defendido é o de que essas imagens podem ser perturbadoras, mas também podem ajudar a criar consciência sobre esses temas, devendo os adultos ter a possibilidade de escolher vê-las.

Estes pressupostos surgem na investigação do The Guardian, numa altura em que o Facebook se encontra sob pressão dos órgãos reguladores europeus e norte-americanos, e por defensores da liberdade de expressão e críticos da rede social, que solicitam à empresa maior transparência e clareza. A maneira de lidar com as fronteiras entre violência credível ou ameaças genéricas não dirigidas a ninguém em particular, por exemplo, nem sempre é clara. Se alguém escrever “matem Trump” isso pode ser lido como uma incitação à violência e deve ser apagado, por se tratar “de um chefe de Estado” e de se encontrar, por essa razão, numa categoria protegida. Mas se a frase for “espero que alguém te mate”, a mesma não será tida como uma ameaça. Da mesma maneira, alusões genéricas como “vai-te lixar e morre” são permitidas.

Fotografias ou outras imagens de abusos de crianças nem sempre são apagadas com o argumento de que podem ajudar a identificar e a socorrer as vítimas. O mesmo pode suceder com vídeos de mortes violentas, fotos de abuso a animais, vídeos de abortos ou de bullying. Apesar de marcadas com um aviso de conteúdo “perturbador”, essas imagens não são necessariamente apagadas, a não ser que tenham uma intenção sádica ou laudatória. A nudez ou a pornografia são também analisadas, com os vídeos colocados por vingança a terem de reunir três condições para serem retirados de imediato – serem privados, mostrarem nus totais ou parciais e revelarem pessoas em actos sexuais.

Em paralelo às directrizes reveladas pelo Guardian, existe o problema do controlo da enorme quantidade de conteúdos. Fontes da empresa disseram ao jornal que o Facebook cresceu demais e que “não consegue manter o controlo” de tudo o que é publicado na rede social, salientando que os moderadores operam sob pressão. A empresa, através de Monika Bickert, responsável pelas políticas de utilização do Facebook, ripostou que não são uma companhia tradicional, argumentando que a empresa se sente responsável pela forma como a tecnologia que cria é utilizada. No entanto, ressalvou: “Não escrevemos as notícias que são lidas na plataforma”.