Ronaldo Gogoni 1 ano e meio atrás

O OpenAI, um grupo de pesquisa focado em IA sem fins lucrativos, que trabalha para desenvolver inteligências artificiais úteis e seguras tomou um belo susto: seu novo sistema de aprendizado de máquina voltado à geração de texto, capaz de prever uma próxima palavra em uma sentença, e continuar a criar a partir dali, aprendeu tão bem a escrever como um humano que o grupo não irá divulgar a pesquisa completa, temendo que ela seja usada para o mal.

A OpenAI foi fundada em 2015 por Greg Brockman, ex-CTO da Stripe, e Sam Altman, presidente da aceleradora Y Combinator, com o intuito de desenvolver IAs amigáveis e úteis, que servissem a seu propósito de auxiliar na resolução de problemas, e que ao mesmo tempo não se tornassem uma fonte de dores de cabeça. Esse discurso se alinha com o de diversos especialistas, como Stephen Hawking, e empreendedores, como Elon Musk, que morre de medo do apocalipse robótico. Não surpreende, portanto que a OpenAI conte com dinheiro do Musk, de outros membros da "Máfia do PayPal" (Peter Thiel e Reid Hoffman) e da própria Y Combinator, através Altman e Jessica Livingston.

O sistema chamado GPT-2 (Generative Pre-trained Transformer-2) é uma dessas IAs seguras, desenvolvida para ser um simples gerador de texto. Ela funciona recebendo uma entrada inicial, na forma de uma sentença simples, e a partir dali prever as próximas palavras que melhor se encaixariam em um texto fluído. Ela identifica o estilo literário e mantém uma narrativa convincente, graças ao treinamento que usou 40 GB de dados, extraídos de 8 milhões de páginas da internet.

No entanto, o GPT-2 se saiu melhor do que a encomenda. Em um exemplo, a IA recebeu a seguinte sentença:

"Em um achado chocante, o cientista descobriu uma manada de unicórnios vivendo em um remoto vale até então inexplorado, na Cordilheira dos Andes. Ainda mais surpreendente para os pesquisadores foi o fato de que os unicórnios falavam um inglês perfeito."

Com apenas esses dois parágrafos, a IA foi capaz de escrever um texto fantástico por mais nove páginas, com fluidez e estilo consistentes. Estes são os parágrafos seguintes à entrada original:

"O cientista deu à população um nome baseado em seu chifre característico: o Unicórnio de Ovídio. Estes unicórnios de quatro chifres e cor branco-prateada eram anteriormente desconhecidos para a ciência. Agora, depois de quase dois séculos, o mistério do que desencadeou esse estranho fenômeno está finalmente resolvido. Dr. Jorge Pérez, biólogo evolucionário da Universidade de La Paz, e vários companheiros estavam explorando a Cordilheira dos Andes quando encontraram um pequeno vale, sem outros animais ou humanos. Pérez notou que o vale tinha o que parecia ser uma fonte natural, cercada por dois picos de rocha e neve prateada."

Como dá para notar, o GPT-2 tem alguns problemas com textos específicos demais (o unicórnio de quatro chifres, no caso), que demandam contexto e conhecimento referencial, mas em testes com textos mais conversacionais, ou em tópicos com grande quantidade de material para referência disponível (Brexit, Miley Cyrus, O Senhor dos Aneis, e etc.), a IA apresentou "resultados razoáveis" em 50% dos casos, ainda que necessite de mais de uma tentativa para entregar um texto coeso.

A equipe do The Guardian conseguiu testar o software, e introduziu a primeira frase de 1984, de George Orwell (“Era um dia frio e ensolarado de abril, e os relógios batiam treze horas”), como um teste. O GPT-2 reconheceu o estilo literário, e retornou isto:

"Eu estava no meu carro a caminho de um novo emprego em Seattle. Eu abastecei, coloquei a chave, e então dei partida. Eu apenas imaginei como seria o dia. Daqui a cem anos. Em 2045, eu seria professor em uma alguma escola na parte pobre da China rural. Eu começaria com história chinesa e história da ciência."

A equipe do OpenAI percebeu que o GPT-2 também se saiu muito bem em tarefas para as quais não foi projetado, como tradução de textos e elaboração de resumos, e apresentou ensaios dos mais variados, desde um artigo explicando por que reciclagem é ruim, a um discurso de John F. Kennedy, reeleito presidente após ter seu cérebro (ou o que sobrou dele) transplantado em um robô.

Dado o alto nível de proficiência que o GPT-2 alcançou, os pesquisadores do OpenAI decidiram por não divulgar o trabalho completo em um artigo, como é de praxe em pesquisas científicas, e ao invés disso, forneceram os dados de uma versão inferior, menos capaz, para revisão por pares.

Segundo o OpenAI, embora o GPT-2 não seja perfeito, ele já escreve bem o suficiente para criar notícias suficientemente convincentes, de modo que a versão final seria inevitavelmente usada para a composição de notícias falsas, as tão temidas Fake News. O The Guardian demonstrou isso, publicando uma nota escrita pela IA ao fornecer apenas os dois primeiros parágrafos da notícia verdadeira, e os resultados impressionam; segundo o jornal, o GPT-2 só levou 15 segundos para compor a notícia, com 515 palavras e 3.056 caracteres.

A preocupação do OpenAI não é apenas com Fake News, mas também com a possibilidade de automação de e-mails de phishing, ou com bots se passando por pessoas reais em redes sociais de forma mais convincente, chegando até ao assédio automatizado. Por outro lado, há uma série de benefícios, como a possibilidade de gerar melhores softwares de reconhecimento de fala e escrita, ou de agentes de diálogo.

O grupo pretende discutir sua estratégis de divulgação da pesquisa com a comunidade de pesquisadores da área de Inteligência Artificial, de modo a definir a melhor abordagem para compartilhar suas descobertas sem que o GPT-2 seja abusado; a OpenAI pretende vir a público com novas informações daqui a seis meses.

Com informações: OpenAI, The Guardian, Ars Technica.