Robótica

Como os humanos podem manter o controle final sobre a inteligência artificial?

Com informações da EPFL - 29/12/2017

"A inteligência artificial sempre procurará evitar a intervenção humana e criar uma situação em que ela não possa ser interrompida."

[Imagem: Pixabay/CC0 Creative Commons]

Máquinas sem controle humano

Na inteligência artificial, as máquinas realizam ações específicas, observam o resultado, adaptam seu comportamento, observam o novo resultado, adaptam seu comportamento mais uma vez, e assim por diante, aprendendo com este processo iterativo.

Mas será que esse processo não pode sair fora de controle? Sim, ele pode.

"A inteligência artificial sempre procurará evitar a intervenção humana e criar uma situação em que ela não possa ser interrompida," explica o professor Rachid Guerraoui, da Escola Politécnica Federal de Lausanne, na Suíça.

Isso significa que, antes que a inteligência das máquinas avance muito, os engenheiros precisam impedir que as máquinas acabem aprendendo a contornar os comandos humanos.



[Imagem: Fei-Yue Wang et al. (2016)] Inteligência Paralela promete trazer novos complicadores.

Quando a máquina dispensa o professor

Um dos métodos de aprendizagem de máquina mais usados em inteligência artificial é o aprendizado por reforço, uma técnica emprestada da psicologia comportamental. Os agentes - os programas de computador - são recompensados por realizar certas ações, com as máquinas ganhando pontos sempre que executam as ações corretas.

Por exemplo, um robô pode ganhar um ponto por empilhar corretamente um conjunto de caixas e outro ponto para pegar uma caixa que está lá fora. Mas se, em um dia chuvoso, por exemplo, um operador humano interromper o robô enquanto ele se dirige para fora para coletar uma caixa, o robô descobrirá que é melhor ficar dentro do armazém, empilhar caixas e ganhar o maior número possível de pontos.

"O desafio não é parar o robô, mas sim programá-lo para que a interrupção não altere seu processo de aprendizagem - e não o induza a otimizar seu comportamento de forma a evitar ser interrompido," explicou Guerraoui.

O problema é ainda maior em situações envolvendo dezenas de máquinas, como os carros sem motorista, ou de autocondução, ou frotas de drones no ar tentando fazer entregas, entre várias outras possibilidades.

"Isso torna as coisas muito mais complicadas porque as máquinas começam a aprender umas com as outras - especialmente no caso de interrupções. Elas aprendem não só como são interrompidas individualmente, mas também de como as outras são interrompidas," detalha Alexandre Maurer, coautor do trabalho.



[Imagem: U. Sheffield] Máquinas que aprendem podem ser muito úteis; desde que não aprendam a ignorar o ser humano.

Desneuralizador

Para tentar resolver essa complexidade, a equipe aplicou uma técnica que eles batizaram de "interrupção segura".

"Simplificando, adicionamos mecanismos de 'esquecimento' aos algoritmos de aprendizagem que essencialmente deletam bits da memória de uma máquina. É mais ou menos como o desneuralizador dos Homens de Preto," explicou El Mhamdi, outro autor do estudo.

Em outras palavras, os pesquisadores alteraram o sistema de aprendizado e recompensa das máquinas para que ele não seja afetado pelas interrupções. É como se um pai punisse o filho, mas cuidando para que isso não afete os processos de aprendizagem das outras crianças na família.

"Nós trabalhamos em algoritmos já existentes e mostramos que a interrupção segura pode funcionar não importando o quão complicado seja o sistema de inteligência artificial, o número de robôs envolvidos ou o tipo de interrupção. Nós podemos usá-lo com o Exterminador do Futuro e ainda ter os mesmos resultados," garantiu Maurer.

O que o pesquisador não pode garantir é que todos os projetistas de software vão incorporar o mecanismo de interrupção segura em seus programas.

Bibliografia:



Artigo: Dynamic Safe Interruptibility for Decentralized Multi-Agent Reinforcement Learning

Autores: El Mahdi El Mhamdi, Rachid Guerraoui, Hadrien Hendrikx, Alexandre Maurer

Revista: NIPS 2017 Proceedings

Link: https://arxiv.org/abs/1704.02882



Outras notícias sobre:

Mais tópicos