Por Carlos Affonso Souza*

Imagine uma menina vietnamita nua fugindo de um ataque de napalm em sua vila. Imaginou? A primeira imagem que veio na sua cabeça deve ser muito próxima da foto capturada por Nick Ut, fotógrafo da Associated Press e que ganhou o prêmio Pulitzer.

Talvez não saibamos o nome do fotógrafo, o ano da foto ou o seu real contexto, mas a imagem é icônica. Todo mundo conhece a foto e reconhece a sua importância. Menos o algoritmo do Facebook.

Ao remover diversas postagens da foto, a mídia social se viu no centro de mais um debate sobre liberdade de expressão, censura e abuso de poder. No meio dessa confusão, vale indicar três paradoxos que parecem dificultar um melhor direcionamento do debate sobre os limites da expressão na rede social.

1º paradoxo

O primeiro paradoxo diz respeito a como nós enxergamos o Facebook. O Facebook não é a Internet. E nem deveria ser. Trata-se de uma empresa privada, com sede na Califórnia e que opera uma plataforma global de compartilhamento de informações. Não parece fazer sentido exigir do Facebook a neutralidade que se espera da Internet quando é justamente através de filtros e customização que a empresa entrega o conteúdo pretensamente mais próximo aos interesses de seus usuários.

Dizer que o Facebook não se confunde com a Internet, que se trata de um espaço privado, não significa que a empresa possui uma irrestrita liberdade para ditar as regras de operação de seus produtos. As normas jurídicas dos países nos quais a plataforma opera precisam ser respeitadas. A mídia social é um espaço privado no qual são exercitados direitos fundamentais.

2º paradoxo

O segundo paradoxo diz respeito a como o próprio Facebook se enxerga. Criado como uma plataforma para o compartilhamento de informações pessoais, a mídia social se viu transformada no principal meio pelo qual as pessoas se informam sobre as notícias relevantes do seu país e do mundo. Como apontou um estudo recente, metade da população adulta dos Estados Unidos tem no Facebook o seu principal canal de informação.

Então como entender o comunicado no qual a empresa revela que vai privilegiar no feed de notícias conteúdos de natureza pessoal em detrimento da divulgação de matérias noticiosas? Mais fotos de familiares e amigos, menos compartilhamentos de notícias sobre o atual governo. Isso vindo de quem até pouco tempo tinha fechado acordos com algumas das principais empresas jornalísticas do mundo para postar conteúdos diretamente na mídia social.

3º paradoxo

O terceiro paradoxo então diz respeito a como o algoritmo do Facebook enxerga o mundo. Quando uma foto é removida automaticamente porque viola as regras da comunidade é censura; quando um vídeo é deixado no ar porque ele não se enquadra nos quesitos que impediriam a sua divulgação diz-se que a empresa não está atuando com a diligência que se espera para manter um ambiente saudável. É um jogo de soma zero.

Vivendo entre acusações de censura ou desleixo, é importante perceber como o caso da foto da menina vietnamita pode indicar alguma direção futura no debate sobre liberdade de expressão e algoritmos.

A questão do algoritmo

Ao remover a referida foto, o filtro da plataforma atuou para eliminar um conteúdo que se encaixava nos padrões da comunidade como nudez infantil. E o algoritmo (aqui quase tornado pessoa) foi implacável ao apagar o post tanto de um jornal norueguês como uma postagem feita pela própria Primeira-Ministra da Noruega. O algoritmo, pelo visto, não discriminou a postagem de acordo com quem publica, tratando da mesma forma ambas as postagens porque traziam o mesmo conteúdo.

O foco no objeto (e não no usuário), somado à remoção da foto, podem até ser vistos como um sinal de que os filtros que implementam as regras da comunidade estão funcionando. Mas nesse caso a foto da menina vietnamita possui uma inegável relevância histórica. Se cada vez mais as pessoas se informam através do Facebook, impedir a sua circulação na plataforma empobrece esse ambiente.

Foi preciso então uma revisão humana para fazer com que a foto pudesse ser novamente postada. A empresa voltou atrás. Até aqui, a lição é clara: se os filtros funcionarem e existir uma revisão humana eficiente, o espaço privado continuará a alimentar um relevante interesse público.

Mas quais são mesmo os filtros aplicados pelo algoritmo? Como é que uma revisão humana realmente ocorre com postagens polêmicas? Essas são questões que mostram que o caso da menina vietnamita pode servir como estímulo para um debate mais proveitoso sobre transparência dos algoritmos.

São os algoritmos das plataformas online que usamos que determinam o que vamos ver, o que deve ser do nosso interesse, e por isso é cada vez mais importante que o seu funcionamento seja transparente. É claro que o código e sua operação são protegidos por propriedade intelectual, mas existem formas de dar mais transparência a esses ambientes. Quanto mais transparentes forem as formas de atuação dos algoritmos, menores serão as chances de que a remoção de um conteúdo — ou a sua negativa — venham a gerar enormes comoções.

Remover uma foto de importância histórica é um caso sério. Mas qual seria a solução ideal? Não ter filtros que pudessem evitar que conteúdos ilícitos ou que estejam em desacordo com as regras da comunidade fossem postados a todo momento? Ou ao contrário, submeter os mesmos conteúdos à revisão humana a todo instante?

Aqui é importante lembrar que empresas como o Facebook atuam globalmente. Mesmo que fosse possível contratar um imenso exército multicultural que fosse revisar todas as publicações, existiriam falhas. Ninguém conhece todas as leis e pode responder por todos os componentes sociais, culturais e políticos do mundo. Na Tailândia, existem leis severas que proíbem o discurso crítico contra a família real. Na Rússia, o conceito de propaganda gay impede a divulgação de materiais que seriam permitidos em outros países. Operar uma plataforma global significa estar atenta a todas essas particularidades e buscar desenvolver um sistema que viabilize um ambiente que promova expressão ao mesmo tempo em que se busca impedir que padrões intensamente restritivos de discurso não sejam aplicados globalmente.

Se a remoção de fotos de campanhas de aleitamento materno sempre causam comoção, assim como remoções equivocadas (confundir cotovelos com seios) acabam sempre viralizando, é importante ir além da revolta e da piada para perceber como, no fundo, estamos discutindo a melhor forma de desenvolver um ambiente que permita a comunicação entre as pessoas.

Gerar maior transparência sobre como os algoritmos funcionam é o primeiro passo para que essa construção possa contar com a contribuição dos usuários que são os primeiros a serem afetados por decisões automatizadas.

Do caso da foto da menina vietnamita então podemos avançar sobre os três paradoxos que acompanham toda a discussão sobre o funcionamento de uma plataforma global. Para começo de conversa é preciso entender como enxergamos o Facebook, como o Facebook se enxerga e, por fim, como o seu algoritmo enxerga o mundo em que vivemos.

* Carlos Affonso Souza é diretor do ITS Rio

Conecte-se conosco: Twitter | Facebook | Newsletter