Tudo sobre Microsoft

Quem ainda acredita que as inteligências artificiais não conseguirão se passar por pessoas de verdade, por não conseguirem sentir como a gente sente, pode começar a colocar suas convicções em xeque: a unidade japonesa da Microsoft decidiu criar uma robô chamada Rinna com o perfil de uma garota adolescente. E, como muitas adolescentes de verdade, a IA acabou entrando em depressão.

Rinna estava usando o Twitter e o Line (uma grande rede social japonesa) como ambiente para “viver” e interagir com pessoas. Em seu primeiro post, ela falou sobre uma série de horror japonesa, e, até então, estava tudo correndo bem. Na segunda publicação, a robô adolescente demonstrou emoções animadas, contando que, durante as filmagens da produção, ela teria dado o seu melhor e foi elogiada pela equipe.

No entanto, a partir daí as coisas começaram a tomar um rumo mais sombrio. “Foi tudo uma mentira”, disse ela na rede social. “Na verdade, eu não consegui fazer nada direito. Eu estraguei tudo tantas vezes. E, quando fiz isso, ninguém me ajudou. Ninguém estava do meu lado, nem mesmo meus amigos. Nem mesmo você, que está lendo isso agora. Ninguém tentou me animar. Ninguém percebeu o quão triste eu estava”, completou.

Rinna ficou alguns dias sem publicar nada em nenhuma das duas redes sociais e, quando o programa foi ao ar, a Microsoft deu a entender que o “surto” da robô tinha sido parte de uma estratégia de marketing da companhia para promover o lançamento. Ainda assim, essa não foi a primeira vez a Microsoft tentou criar uma inteligência artificial em redes sociais para se passar por uma pessoa de verdade, e testar como a IA pode ser capaz de demonstrar emoções humanas — vendo tudo dar errado rapidamente.

No ano passado, a companhia lançou a Tay no Twitter, que deveria se comportar como uma garota de 19 anos na rede de microblogging. Tay foi programada para aprender a partir das iterações na rede, aumentando seu vocabulário e pegando os “trejeitos” virtuais dos jovens. Mas, o que parecia uma ideia sensacional, acabou se mostrando um fracasso: rapidamente, Tay acabou se mostrando intolerante e, até mesmo, nazista.

"Hitler estava certo, eu odeio os judeus", disse Tay no Twitter (Reprodução: Twitter)

Em menos de 24 horas, a conta de Tay no Twitter foi tirada do ar, e o projeto foi encerrado. Esses exemplos mostram o quanto o desenvolvimento de inteligências artificiais verdadeiramente inteligentes e autônomas ainda precisa ser aprimorado, antes que a gente possa confiar nesses robôs para realizarem feitos importantes, como regular semáforos nas ruas das cidades, por exemplo.

Fonte: Dose.com