Um grupo de estudantes de ciência da computação e o professor-orientador Rodrigo Filev Maia, do centro universitário FEI, em São Bernardo do Campo, desenvolveu um sistema que é capaz de identificar potenciais abusadores de crianças a partir de uma análise do conteúdo de conversas na web ou em celulares. Segundo os estudantes a tecnologia, este método é único no mundo e possui uma taxa de acerto de 85%. As informações são da Folha de S. Paulo.

O sistema poderia ser usado principalmente por pais que estão preocupados com a segurança dos filhos na web, ao mesmo tempo que não querem privá-los de navegar na rede. Maia, o autor da ideia, buscou estudantes interessados no projeto após estar preocupado com a segurança dos próprios filhos – que têm quatro e sete anos. “Como você pode proteger seus filhos quando navegam na internet? É impensável falar em isolá-los digitalmente”, comentou o professor.

Ainda na primeira fase de desenvolvimento, o algoritmo funciona para o inglês, mas será adaptado para o português na segunda fase do projeto. Ele funciona identificando potenciais padrões geralmente usados por pedófilos para abordar as crianças no computador.

O sistema é capaz de identificar palavras com cunho sexual, mas também termos usados como “garoto”, “garota”, “querido” e sequências específicas de palavras que podem significar alguma tentativa e identificar o correspondente como um potencial agressor, explicou o estudante Gabriel Lett Viviani. Segundo ele, o sistema é capaz de organizar a conversa como se fosse uma rede e depois a analisa. “A métrica que usamos dá pontos para quantificar a relevância de cada palavra dentro da conversa”.

O que faz com que sistema seja realmente inovador é a capacidade dele de analisar conversas em tempo real. Até o momento, todos os mecanismos desse tipo são capazes de examinar apenas uma conversa concluída. Para o professor Maia, o principal uso do algoritmo quando ele estiver pronto será em computadores e smartphones.

O sistema é dividido em três processos: primeiramente, o software quebra a conversa em partes, depois entra em ação o banco de dados onde a conversa é comparada e classificada como "culpada" ou “inocente” e, por fim, o sistema dá notas aos textos e apresenta um resultado positivo ou negativo.

Para Viviani, o principal problema encontrado até agora no sistema é uma quantidade alta de falsos positivos, pelos quais conversas com não agressores são consideradas suspeitas. Mas segundo o estudante, “é melhor detectar um inocente do que deixar passar um agressor”.

O projeto utiliza 5 mil conversas verdadeiras em inglês com diversos teores e que foram captadas pela Bauhaus-Universität Weimar, na Alemanha. O banco de dados que contém propagandas, conversas de bate-papo e de grupo, foi disponibilizado para que o grupo realizasse este trabalho.

Nos testes, o sistema apresentou entre 500 e 600 falsos positivos, mas em um ambiente real, afirma Viviani, esses inocentes que são tomados como potenciais agressores deveriam passar pela avaliação de uma pessoa, que julgaria se a preocupação é correta ou não.

O projeto foi o trabalho de conclusão de curso do grupo que contou também com os estudantes Gabriel Dias, Gabriel Martinez e Ítalo Ferreira. Os quatro e o professor Maia pretendem agora dar continuidade ao projeto orientando uma nova turma de estudantes que seriam responsáveis pela segunda parte do planejamento. Os pesquisadores acreditam que o algoritmo deve ser concluído e disponibilizado em 2016.