O TikTok instruiu seus moderadores a esconderem vídeos que mostrassem pessoas consideradas “feias”, deficientes e até casas consideradas “pobres”, segundo documentos internos analisados pelo Intercept. Os arquivos mostram que os moderadores também foram instruídos a censurar discurso político nas transmissões ao vivo, banindo da plataforma aqueles que prejudicassem a “honra nacional” ou transmitissem vídeos sobre “órgãos de estado como a polícia”. São documentos inéditos e que foram utilizados na empresa até pelo menos meados do segundo semestre de 2019. Também conversamos com múltiplas fontes que trabalharam no TikTok e fornecem mais detalhes sobre os esforços da empresa de impor restrições ideológicas rígidas a seus 800 milhões de usuários, ao mesmo tempo em que tenta vender uma imagem de “criatividade” e “alegria”.

Segundo as regras de moderação vazadas, vídeos que “difamam funcionários públicos” ou podem ameaçar a “segurança nacional” são censurados junto com favelas, miséria, barrigas de cerveja (sim, isso está escrito) e sorrisos tortos. Um documento chega a instruir os moderadores a observar paredes descascadas e “decorações de mau gosto” nas casas dos usuários – para, então, punir esses tiktokkers mais pobres derrubando artificialmente suas audiências. Hoje, o Intercept e o Intercept Brasil publicam o conteúdo de dois desses documentos internos da moderação do TikTok, uma plataforma chinesa de vídeos curtos que se tornou sucesso entre os jovens e que foi um dos aplicativos mais baixados do mundo nos últimos dois anos. Um deles proíbe conteúdo ideologicamente indesejável em transmissões ao vivo; o outro descreve as punições para usuários pobres ou pouco atraentes. Os dois foram recriados com alterações mínimas para preservar as fontes. Tudo indica que eles foram produzidos originalmente em chinês e depois foram traduzidos – muitas vezes com erros – para o inglês para serem usados nos escritórios da chinesa ByteDance, empresa dona do TikTok, ao redor do mundo.

O TikTok pertence à ByteDance, uma empresa sediada em Pequim, na China, que opera vários sites e aplicativos. Fundada em 2012, ela foi investigada pelo governo americano por supostamente trabalhar a serviço do governo chinês. Os senadores Chuck Schumer e Josh Hawley tentam limitar o uso do TikTok por membros do exército e do governo dos EUA, argumentando que seria um risco à segurança nacional. Alcance limitado para os ‘pouco atraentes’ O documento de moderação que detalha as características corporais e ambientais consideradas pouco atraentes lista uma série de razões que poderiam ser motivo para barrar, de forma invisível, um determinado clipe da seção “Para você” do aplicativo. Trata-se da primeira tela que os usuários veem quando abrem o aplicativo. Nela, o TikTok recomenda vídeos de forma automatizada, organizados por um algoritmo, com base em critérios secretos. Os motivos que levam um vídeo a ter destaque na página inicial continuam um mistério. Mas o documento ao qual tivemos acesso revela que é preciso muito pouco para ser excluído dali, baseado no argumento de que uploads pouco atrativos ou que mostrem usuários indesejados poderiam “diminuir a taxa de retenção de novos usuários de curto prazo”. Isso é especialmente importante, o documento enfatiza, para conteúdos em que o usuário “é basicamente o único foco do vídeo … se a aparência do personagem ou do ambiente não é boa, o vídeo será muito menos atrativo, não merecendo ser recomendado a novos usuários”.

Sob essa política, os moderadores do TikTok foram explicitamente orientados a suprimir uploads de usuários com falhas congênitas e inevitáveis: “forma corporal anormal”, “aparência facial feia”, “barriga de cerveja óbvia”, “muitas rugas”, “problemas nos olhos” e muitas outras características de “baixa qualidade” para deixar os vídeos de fora da indicação algorítmica. Vídeos em que “o ambiente de gravação é surrado ou está em ruínas”, incluindo mas “não limitado a: favelas, campos rurais”, são sistematicamente escondidos de novos usuários, mas “cenários rurais naturalmente bonitos podem ser preservados”, diz o documento. As regras, apresentadas em inglês e chinês, orientam os moderadores do TikTok a observar com atenção vídeos gravados na casa de pessoas com “características não óbvias de favelas”. Detalhes como “paredes descascadas” ou decoração de mau gosto são características que o site considera indesejáveis. A mera aparência de falta de reparos, o documento mostra, poderia significar a diferença entre o vídeo ser distribuído mundialmente ou ficar relativamente invisível.

A justificativa aqui também foi que o TikTok deveria atrair e reter novos usuários: “esse tipo de ambiente não é tão adequado para novos usuários por ser menos chique e atraente”. Startups sociais, sedentas por aproveitar o momento e não desaparecer, normalmente consideram crescimento e retenção de usuários suas prioridades a todo custo, mas raramente o público é informado sobre os detalhes dessas estratégias agressivas de expansão. Não está claro, no entanto, o quanto essa prática foi generalizada.

O porta-voz da empresa, Josh Gartner, disse ao Intercept que “a maioria” das diretrizes obtidas por nossa reportagem “ou não estão mais em uso, ou em alguns casos nunca foram utilizadas”. Segundo ele, elas parecem ser as mesmas ou similares às publicadas pelo site alemão Netzpolitik em dezembro. Na oportunidade, a empresa alegou que as diretrizes eram uma tentativa do TikTok de prevenir o bullying. Gartner garantiu que as regras não estão mais em uso e já não eram utilizadas quando o Intercept as obteve.

O documento explicita seu verdadeiro propósito: reter novos usuários para aumentar o crescimento do app.

Os documentos analisados pelo Intercept, no entanto, incluem várias políticas que vão além das reportadas pelo Netzpolitik, incluindo a supressão de conteúdos de usuários pobres, velhos ou “feios”. Além disso, o arquivo que detalha a “atratividade” dos usuários, em uso até pelo menos o fim de 2019, não menciona em nenhum momento o objetivo anti-bullying. Na verdade, ele explicita seu verdadeiro propósito: reter novos usuários para aumentar o crescimento do app. Quando perguntando sobre essa discrepância, Gartner não respondeu. E também não disse se a empresa ainda suprime conteúdos baseados na estética ou em indicadores sociodemográficos. Em forte contraste com a prática da empresa de estrategicamente suprimir conteúdo considerado pouco atrativo, uma fonte da moderação do TikTok contou ao Intercept que o tratamento dedicados aos creators atraentes era bem diferente – eles eram, inclusive, avisados sobre o que pegava bem e mal na plataforma. “Os operadores que falavam diretamente com os influenciadores e criadores de conteúdo oficiais sempre fazem videoconferências com grupos para passar as ‘regras de segurança’, assim diminuem as chances de eles criarem vídeos que vão contra o que eles [o pessoal da ByteDance] julgam certo”, nos disse a fonte. Segundo ela, o escritório promovia videoconferências regulares entre operadores, uma pessoa do “time de segurança” e com influenciadores selecionados pelo TikTok para avisar antecipadamente sobre mudanças nas regras. Lives vigiadas e censuradas Um segundo documento obtido pelo Intercept estabelece regras para a censura manual em transmissões ao vivo. Essas diretrizes poderiam ser facilmente interpretadas para proibir qualquer discurso político sério, classificando-o como perigoso ou difamatório. “Difamação… contra funcionários públicos, políticos ou líderes religiosos” ou contra “as famílias desses líderes” são, sob essa política, passíveis de punição com o corte da transmissão e suspensão da conta por um dia. O documento lista pelo menos 64 infrações possíveis, organizadas em 13 diferentes categorias. Qualquer transmissão classificada pelos moderadores da ByteDance como “perigosa à segurança nacional” ou mesmo à “honra e os interesses nacionais” é punida com banimento permanente, assim como a “distorção da história de outros países” – um dos exemplos citados são os “incidentes na Praça da Paz Celestial“. Uma transmissão ao vivo pessoal sobre “órgãos estatais como a polícia, as forças armadas, etc.” te deixará fora do TikTok por três dias, enquanto documentar uso da violência por parte de militares ou policiais causam banimento por um dia.

Usuários que usam o recurso de transmissão ao vivo para xingar o TikTok também são punidos com três dias de suspensão. Já o tratamento do TikTok às lives racistas é mais severo. Descritas na mesma categoria “conteúdo controverso”, transmissões que tentam “envergonhar ou depreciar indivíduos ou grupos sobre certos atributos como deficiência, gênero, cor, orientação sexual, nacionalidade, etnia ou crenças” resultam na suspensão por um mês da plataforma. Depois disso, o usuário pode voltar a usar a ferramenta normalmente. Mas a punição para usar uma roupa que marque os mamilos (femininos, claro) é ainda pior: resulta na suspensão definitiva da conta. Fazer uma live grávida se tiver menos de 18 anos também. Usuários que usam a plataforma para promover concorrentes também podem ser banidos para sempre. Perguntamos ao TikTok se as regras para transmissões ao vivo que obtivemos ainda são aplicadas, ainda que escritas de forma diferente – por exemplo, se há alguma regra contra “prejudicar a honra nacional” ou documentar movimentos da polícia. A empresa não respondeu. “É correto que para transmissões ao vivo o TikTok é particularmente vigilante sobre manter conteúdo sexualizado fora da plataforma”, disse o porta-voz em um comunicado por e-mail, se esquivando de todas as perguntas específicas do Intercept que questionavam o atual status das proibições políticas. “Como em todas as plataformas, nós temos políticas para proteger nossos usuários, proteger a segurança nacional, por exemplo banir qualquer conta que promova discurso de ódio ou terrorismo, como detalhado nas nossas Diretrizes da Comunidade”. O porta-voz também tentou repetidas vezes conversar em off com o Intercept sobre essas questões. Negamos todas.

O TikTok pertence à empresa chinesa ByteDance, sediada em Pequim. Fundada em 2012, a empresa foi investigada pelo governo americano por supostamente trabalhar a serviço do governo chinês. Foto: Long Wei/VCG via Getty Images

Outro documento de moderação obtido pelo Intercept indica que a ByteDance controlava os feeds do TikTok não apenas censurando vídeos ou escondendo usuários, mas também artificialmente alimentando os feeds com “shadow accounts”, contas falsas operadas pelos funcionários. Um documento sugere que os responsáveis procuravam por tópicos populares no Instagram, baixavam os vídeos e então os recompartilhavam no TikTok para manter um fluxo constante de conteúdo apelativo. Os funcionários com a tarefa de povoar os vídeos na categoria “boa aparência” eram encorajados a procurar no Instagram por posts com tags como #BeachGirl, or exemplo. Mas as garotas de praia escolhidas só podiam aparecer se seguissem a cartilha do TikTok. No documento que detalha as regras para transmissão ao vivo, alguns desses critérios são explicitados: biquínis só são aprovados se estiverem em um contexto de praia ou piscina – caso contrário, causam uma semana de suspensão. Se aparecer um mamilo feminino, a conta pode ser banida para sempre. Músicas com conteúdos sexuais também são proibidas, assim como meramente “discutir o tópico da reprodução sexual”. O TikTok classifica isso como “vulgaridade”. Questionado sobre essas práticas, Gartner disse que não encontrou “essa linguagem em nenhum lugar das políticas de moderação”. Políticas de uso a serviço da China Essa tensão política e ideológica de aplicação de regras já gerou outros problemas para a empresa sediada em Pequim. Em outubro passado, o The Guardian publicou uma reportagem com regras de moderação vazadas que mostravam como o TikTok “instruiu seus moderadores a censurar vídeos que mencionavam a Praça da Paz Celestial e a independência do Tibete”, entre outras regras autoritárias. A ByteDance reconheceu, na época, que, no começo do TikTok, a empresa tentou minimizar conflitos na plataforma, e aquelas regras de moderação não estariam mais em uso. No TikTok, os infratores nunca vão receber uma explicação satisfatória sobre suas punições porque a existência e os conteúdos das regras são mantidos fora do alcance do público. Como em toda empresa que lucra com conteúdo produzido por usuários, o TikTok mantém políticas secretas que traçam limites do que é tolerável e dita como os ofensores são punidos. As pessoas só têm acesso às “diretrizes da comunidade”, em geral documentos genéricos, cheios de jargões. Mas por trás de cada “diretriz da comunidade” existem as regras reais, normalmente documentos extensos que dão aos moderadores instruções detalhadas do que apagar e do que manter. Esses funcionários são excluídos do processo de criar as regras sem receber orientações sobre os algoritmos e estratégias adotadas. Gartner disse ao Intercept que a equipe de moderação do TikTok é “uma combinação” de funcionários e prestadores de serviço. Também afirmou que, ao longo do último ano a empresa criou equipes de Trust and Safety nos EUA, Irlanda e Cingapura, que supervisionam o desenvolvimento e a execução das políticas de moderação e são liderados por especialistas nessas áreas. Ele não respondeu por que os documentos que recebemos foram originalmente escritos em chinês.

As regras ameaçam a livre expressão política e censuram grande parcela da população que não se enquadra nos critérios arbitrários de moral e estética da empresa.