Símbolo do Pegabot, 'caçador de robôs' que analisa se perfis de rede social são alimentados por 'bots'. — Foto: Divulgação/Pegabot

Como na internet, quem vê cara pode não encontrar um coração, um grupo de ativistas criou uma ferramenta para identificar perfis de redes sociais alimentados por robôs na web, os chamados “bots”, programas de computador que se comportam como gente de carne e osso mas são criados para interferir em debates online com propósitos políticos ou comerciais.

“O principal objetivo da plataforma é informar as pessoas sobre com quem elas estão discutindo nas redes sociais”, diz o argentino Ariel Kogan, diretor do Instituto Tecnologia & Equidade, que criou o recurso ao lado do Instituto de Tecnologia e Sociedade (ITS).

“A gente entende que, em um regime democrático, as pessoas devem conversar e discutir entre elas, não com robôs. E é fundamental que elas saibam com quem estão falando.”

Lançado no começo de abril, o caçador de robôs se chama Pegabot e surge em um momento em que as redes sociais estão no centro das atenções por terem ganhado relevância como disseminador de informações, ao mesmo tempo que não conseguem controlar a onda de notícias falsas.

“O impacto das notícias falsas está muito relacionada com o uso dos robôs”, diz Kogan. “Ela pode passar sem influência ou ter um impacto grande. Isso vai depender do tamanho do alcance que ela terá na rede social e isso depende dos perfis que vão compartilhar.”

Para flagrar robôs em ação, o Pegabot faz uma análise do comportamento da conta. Os critérios avaliados são:

intervalo entre postagens: um período pequeno entre publicações diferentes -- dois segundos, por exemplo -- podem indicar de que se trata da ação de um robô;

um período pequeno entre publicações diferentes -- dois segundos, por exemplo -- podem indicar de que se trata da ação de um robô; frequência das postagens: posts que vão ao ar no mesmo horário são outro indício de que pode haver um robô por traz do perfil;

posts que vão ao ar no mesmo horário são outro indício de que pode haver um robô por traz do perfil; “pessoalidade” dos textos: conteúdo repetido ou tirado literalmente de outras publicações ou com poucas formatações pistas de que o trabalho foi feito por uma máquina;

conteúdo repetido ou tirado literalmente de outras publicações ou com poucas formatações pistas de que o trabalho foi feito por uma máquina; linguagem natural: vocabulário recorrente e fora de contexto, assim como a incidência de certas palavras, são características de contas automatizadas.

2 de 2 Ariel Kogan, diretor do Instituto Tecnologia & Equidade. — Foto: Arquivo Pessoal Ariel Kogan, diretor do Instituto Tecnologia & Equidade. — Foto: Arquivo Pessoal

O Pegabot não é taxativo ao dizer se há um bot ou um ser humano por traz de um perfil. Ele oferece uma nota, que varia de 0 a 100. “A partir de 80%, 85% para um lado ou para outro tem uma grande probabilidade de ser humano ou robô”, diz Kogan. Ele ressalta, no entanto, que o algoritmo que sustenta o funcionamento do Pegabot ainda está sendo refinado. Por isso, pode haver desencontros. “A gente está calibrando o algoritmo, para estar o mais pronto possível para o período eleitoral.”

Idealizado há oito meses, o Pegabot é fruto do trabalho de uma equipe de até 15 desenvolvedores dos dois institutos e do AppCivico, empresa que cria ferramentas para conectar cidadãos e promover ações de cidadania.

Por ora, o Pegabot atua só no Twitter. Para descobrir se um perfil é automatizado ou não, basta copiar o endereço da conta e inseri-la no site da "caçador de bot" (veja aqui).

Exército de contas falsas

O microblog reconhece que a disseminação de contas falsas é um problema, mas calcula que perfis automatizados e destinados a espalhar conteúdo repetitivo não soma 5% de sua base de usuários.

Kogan diz que já conversa com Facebook para levar o Pegabot à rede social e também ao aplicativo de mensagens WhatsApp. O site de Mark Zuckerberg estima que, entre os 2,1 bilhões de usuários, a população de contas falsas seja de 3% a 4%.