Apear do co-fundador da Apple, Steve Wozniak, apoiar os avanços da inteligência artificial pelo que esta poderá fazer pelo homem, começa a reconhecer os perigos que estão inerentes a uma suposta super inteligência que ultrapasse os humanos.

"Os computadores vão ultrapassar os humanos, sem dúvida", começa por dizer em entrevista com o australiano Financial Review, acrescentando ainda que estava cético em relação às teorias de futuristas como Raymond Kurzweil, que previam que a tecnologia suplantasse a razão humana dentro de 30 anos.

As opiniões de Wozniak sobre a inteligência artificial seguem as de outros líderes influentes da tecnologia, como Bill Gates, o CEO da Tesla Elon Musk, ou as do professor Stephen Hawking, que expressaram anteriormente a preocupação com as consequências de desenvolver uma super inteligência. De acordo com eles, a humanidade deveria ser cautelosa com o desonvolvimento futuro destas tecnologias.

"Tal como pessoas como Stephen Hawking e Elon Musk previram, concordo que o futuro é perigoso e pode ser muito mau para as pessoas. Se desenvolvermos estes dispositivos capazes de fazer tudo por nós, eventualmente, estes vão conseguir pensar mais rapidamente que nós e livrar-se-ão dos humanos lentos, para que as companhias sejam mais eficientes." "Vamos ser deuses? Animais de estimação? Ou apenas formigas para ser pisadas? Não faço ideia ... mas quando penso nisso e na forma como vou ser tratado no futuro, como um animal de estimação para estas máquinas ... bem, vou tratar o meu próprio cão de estimação o melhor possível".

Tim Urban, autor e um dos donos da Wait But Why, explica que é importante identificar as diferenças entre a super inteligência e a inteligência de qualidade.

"O primeiro pensamento das pessoas quando imaginam um super computador, é frequentemente similar ao modo de pensar dos humanos, mas de forma muito mais rápida. Poderão imaginar uma máquina que pensa como uma pessoa, só que um milhão de vezes mais depressa, o que significa que seriam capazes de perceber num minuto, aquilo que levaria uma década para nós."

O fator importante não é a velocidade, mas a vantagem da qualidade da inteligência. Por exemplo, os humanos são mais capazes intelectualmente que os chimpanzés, devido ao maior número de módulos cognitivos.

“Acelerar o cérebro de um chimpanzé 1000X, não o traz para o nosso nível, ele não seria capaz de perceber o funcionamento de um conjunto de ferramentas, nem seria capaz de montar um modelo complexo, algo que os humanos fazem em algumas horas. Existem espaços da função cognitiva dos humanos que os chimpanzés nunca conseguiriam atingir, independentemente da velocidade de processo."

Wozniak acredita que o resultado negativo na inteligência da máquinas pode ser evitado com o final da lei de Moore e a introdução de computadores quânticos, onde a "humanidade será protegida do perpétuo aumento da capacidade do poder de computação". Apesar da lei que diz que o número de transistors num circuito integrado, aumenta exponencialmente a cada dois anos, alguns acreditam que este progresso será parado algures em 2020, porque o tamanho de um transistor de silicone vai reduzir o tamanho de um único átomo.

"Apesar de todo o tempo passado com a computação quântica, não há grande coisa a mostrar, algo utilizável para as coisas que precisamos... os pesquisadores podem fazer previsões, mas ainda não conseguiram passar os três qubits", diz Wozniak. "Espero que esse momento chegue, devemos persegui-lo, porque representa a exploração científica, no entanto, no final, podemos acabar por criar uma espécie acima de nós."

Do lado oposto, Eric Schmidt da Google assegura-nos que os humanos não precisam de temer o progresso da inteligência artificial e acredita que esta tem imenso potencial para mudar o futuro da humanidade para melhor.

Aníbal Gonçalves é um entusiasta de videojogos, Troll, editor de conteúdos do IGN Portugal e completo geek nos tempos livres. Podes segui-lo em @Darthyo