Por Michal T. Klare, em TomDispatch | Traduzido por Marianna Braghini e Felipe Calabrez

Nada é mais certo de que o lançamento de armas atômicas poderia provocar um holocausto nuclear. O presidente norte-americano John F. Kennedy deparou-se com tal momento durante a Crise dos Mísseis de Cuba em 1962. Depois de pressentir o resultado catastrófico de um confronto nuclear entre EUA e União Soviética, ele chegou à conclusão que as potências atômicas deveriam impor barreiras ao uso precipitado uso de tal armamento. Entre as medidas, ele e outros líderes globais adotaram diretrizes, requerendo que funcionários de alto nível, não apenas militares, tivessem um papel em qualquer decisão de lançamento de armas atômicas.

O risco existia antes e, claro, perdura. E como! Como a inteligência artificial, (IA) exerce um papel cada vez maior em assuntos militares — aliás, em toda nossa vida — o papel dos humanos, mesmo em uma decisão do uso nuclear, tende a ser progressivamente minimizado. Aliás, em algum futuro mundo saturado de IA, este papel poderia desaparecer completamente, deixando que as máquinas determinem o futuro da humanidade.

Isso não é uma conjectura qualquer, baseada em filmes de ficção científica ou narrativas distópicas. É bem real, aqui e agora ou ao menos aqui e em breve. Quando o Departamento de Defesa dos EUA — o Pentágono — e o comando militar de outras grandes potências olham para o futuro, o que eles veem é um campo de batalha altamente disputado — alguns chamaram de um ambiente de hiperguerra [hyperwar] — com vastos enxames de armas robóticas guiadas por IA, que se enfrentarão em uma velocidade superior ao que os comandantes militares conseguem acompanhar no curso de uma batalha. Em tal momento, pensa-se, os comandantes podem cada vez mais ser forçados a depender de máquinas, nunca antes tão “inteligentes”, para tomar decisões sobre qual armamento deve ser utilizado, quando e onde. A princípio, isso pode não se estender para armas nucleares, mas à medida em que a velocidade da batalha aumenta e as fronteiras entre estas e o armamento convencional se reduzem, pode ser impossível prevenir a automação até mesmo na tomada de decisão de lançamento de armas nucleares.

A “minimização da tomada de decisão por humanos” terá profundas implicações para o futuro dos combates. Tal resultado só pode crescer, à medida em que a força militar dos EUA se realinhar, transformar de uma organização voltada para guerras assimétricas e contra-terrorismo para outras, voltada ao combate direto contra China e Rússia. Essa mudança foi demandada pelo Departamento de Defesa em sua Estratégia de Segurança Nacional (National Security Strategy,) em dezembro de 2017. Em vez de se focar majoritariamente em armamento e táticas voltadas ao combate de insurgentes mal armados em conflitos perpétuos de pequena escala, o poder militar americano está sendo redesenhado para combater as bem equipadas forças russas e chinesas em diversas dimensões (céu, mar, terra, espaço, ciberespaço) e envolvendo sistemas de múltiplos ataques (tanques, aviões, mísseis, foguetes) e operando com mínima supervisão humana.

“O principal efeito/resultado de todas estas capacidades, quando articuladas, será uma inovação que a guerra jamais viu antes: a minimização das tomadas de decisão por humanos na vasta maioria de processos tradicionalmente requeridos para promover uma guerra,” observaram o General dos Marines, John Allen, e o empreendedor de AI, Amir Hussain. “Nesta era próxima era da hiperguerra, veremos humanos provendo insumos amplos e de alto nível, enquanto as máquinas realizam o planejamento, execução e adaptação à realidade das missões, e retiram o fardo de milhares de decisões individuais sem nenhum insumo adicional.

“O principal efeito/resultado de todas estas capacidades, quando articuladas, será uma inovação que a guerra jamais viu antes: a minimização das tomadas de decisão por humanos na vasta maioria de processos tradicionalmente requeridos para promover uma guerra,” observou o General dos Marines, John Allen, e o empreendedor de IA, Amir Hussain. “Nesta era próxima da hiperguerra [hyperwar], veremos humanos provendo insumos amplos e de alto nível, enquanto as máquinas realizam o planejamento, execução e adaptação à realidade das missões, e retiram o fardo de milhares de decisões individuais sem nenhum benefício adicional.

A “minimização da tomada de decisão por humanos” terá profundas implicações para o futuro do combate. Geralmente, líderes nacionais buscam controlar o ritmo e a direção da batalha para assegurar o melhor desfecho possível, mesmo que isso signifique cessar o conflito para evitar maiores perdas ou prevenir um desastre humanitário. Máquinas, ou até mesmo máquinas inteligentes, são provavelmente incapazes de avaliar o contexto social e político do combate. Ativá-las pode muito bem desembocar em situações que se agravam descontroladamente.

Podem passar anos, talvez décadas, antes que as máquinas substituam o papel dos humanos em decisões militares sérias, mas este tempo está no horizonte. Quando se trata de controle do sistema de armamentos por IA, como afirmou o secretário de Defesa dos EUA, Jim Mattis, em uma entrevista recente: “No futuro próximo, haverá um elemento humano significativo. Talvez por dez anos, talvez por quinze. Mas não por cem.”

Por que Inteligência Artificial?

Mesmo cinco anos atrás, havia poucos no establishment militar que davam atenção ao papel de IA ou da robótica quando se tratava de grandes operações de combate. Sim, aeronaves pilotadas remotamente (RPA), ou drones, foram amplamente usadas na África e Grande Oriente Médio para caçar combatentes inimigos. Mas são operações largamente auxiliares (e as vezes da CIA), que visam aliviar pressão nos comandos dos EUA e forças aliadas, lançadas contra bandos dispersos de extremistas violentos. Além disso, os RPA’s de hoje são ainda controladas por operadores humanos, mesmo de suas remotas localizações e fazem pouco uso de sistemas de ataque e de identificação de humanos providos de IA. No futuro, no entano, espera-se que estes sistemas povoem grande parte de qualquer espaço de batalha, substituindo humanos em muitos ou mesmo na maioria das funções de combate.

Para acelerar esta transformação, o departamento de Defesa já está gastando centenas de milhões de dólares em pesquisas relacionadas a IA. “Não podemos esperar sucesso nas lutas de amanhã com o pensamento, armamento ou equipamento de ontem,” disse o secretário Mattis ao Congresso, em abril. Para assegurar uma contínua supremacia militar, ele adicionou, o Pentágono teria que focar mais em “investimento em inovação tecnológica para aumentar letalidade, incluindo pesquisas de avançados sistemas autônomos, inteligência artificial e hipersônicos.”

Por que a repentina enfase em IA e robótica? Tudo começa, é claro, com o surpreendente progresso feito pela comunidade tecnologica — muito dela assentada no Vale do Silício, Califórnia — no aprimoramento de IA e sua aplicação em múltiplas funções, incluindo identificação de imagens e reconhecimento de voz. Uma dessas aplicações, a Alexa Voice Services, é o sistema de computação por trás do alto falante inteligente da Amazon, que pode usar a Internet não só para executar, mas interpretar seus comandos. (“Alexa, toque música clássica.” “Alexa, me diga a previsão do tempo de hoje.” “Alexa, ligue as luzes.”) Outro tipo de aplicação são os veículos autônomos, que talvez revolucionem o transporte.

Inteligência Artificial é uma tecnologia omni-uso, empregável para tudo, explicam analistas do Congressional Research Service, uma agência apartidária de informação, “ao passo em que tem o potencial de ser virtualmente integrada a tudo”. É também uma tecnologia de uso dual que pode ser aplicada apropriadamente tanto para propósitos militares como para civis. Carros autônomos, por exemplo, dependem de algoritmos especializados para processar informação de qualquer matriz de sensores monitorando condições de tráfego, e então decidir por qual rota seguir, quando mudar de faixa e assim por diante. A mesma tecnologia, e versões reconfiguradas dos mesmos algoritmos, um dia serão aplicadas para tanques autônomos soltos no campo de batalha. Similarmente, um dia, aeronaves drone — sem operadores humanos em localidades distantes — serão capazes de analisar um campo de batalha para alvos determinados (tanques, sistemas de radar, combatentes), determinando que aquilo que “vê” está de fato em sua lista de alvos, e “decidindo” lançar um míssel sobre a pessoa ou objeto.

Não é necessário um cérebro particularmente ágil para entender por que oficiais do Pentágono buscariam se munir com tal tecnologia. Eles acham que ela lhes dará uma considerável vantagem em futuras guerras. Qualquer conflito de grande escala entre EUA, China ou Rússia (ou ambas) seria, para dizer o mínimo, extremamente violento, com possivelmente centenas de navios de guerra e muitos milhares de aeronaves e veículos armados. Em tal ambiente, a velocidade na tomada de decisão, desdobramento e envolvimento será, sem dúvidas, um importante acessório. Num futuro de armamentos super inteligentes, precisamente guiados, quem atirar primeiro terá uma melhor chance de sucesso, ou até mesmo sobrevivência, do que um adversário que só consegue atirar devagar. Humanos podem se mover rapidamente em tais situações quando forçados a fazê-lo, mas as máquinas futuras irão agir muito mais rápido, além de acompanhar mais variáveis do campo de batalha.

Como o General Paul Selva, vice-diretor do Grupo Conjunto de Comando dos EUA, disse ao Congresso de seu país, em 2017, “é muito convincente quando se obseva as capacidades que a inteligência artificial pode trazer para a velocidade e precisão dos comandos e controle, e as capacidades que a robótica avançada pode trazer para um campo de batalha complexo, particularmente de interação entre máquinas no espaço e ciberespaço, onde velocidade é a essência.”

Além de buscar a exploração de IA no desenvolvimento de seu próprio armamento, os oficiais militares dos EUA estão intensamente conscientes de que seus principais adversários também estão avançando no armamento de IA e robótica, buscando novas maneiras de superar as vantagens norte-americanas em armamento convencional. De acordo com o Congressional Research Service, por exemplo, a China está investindo pesado no desenvolvimento de inteligência artificial e sua aplicação para propósitos militares. Apesar de não ter a base tecnologica nem da China nem dos EUA, a Rússia esta similarmente correndo para desenvolver IA e robótica. Qualquer liderança significativa da Rússia ou China em tais tecnologias emergentes, que podem ameaçar a superioridade militares dos EUA, seria intolerável para o Pentágono.

Não é surpreendente então, na tendência das corridas armamentistas passadas (desde o desenvolvimento de navios de guerra pré I Guerra Mundial ao armamento nuclar da Guerra Fria), que uma “corrida armamentista pela IA” esteja a caminho, com os EUA, China, Rússia e outras nações (incluindo Grã-Bretanha, Israel e Coréia do Sul) buscando ganhar uma vantagem significativa no armamento da inteligência artificial e robótica. Oficiais do Pentágono regularmente citam o avanço da China em IA quando buscam financiamento do Congresso aos seus projetos, assim como oficiais militares chineses ou russos sem dúvida citam os norte-americanos para financiar seus próprios projetos nacionais. Na corrida armamentista clássica, essa dinâmica já está acelerando o ritmo de desenvolvimento de sistemas operados por IA e assegurando sua predominância na futura guerra.

Comando e Controle

No ritmo em que se desdobra essa guerra armamentista, a inteligência artificial será aplicada a todo aspecto da guerra, de logística e vigilância até identificação de alvos e gerência de batalhas. Veículos robóticos acompanharão tropas no campo de batalha, carregando suprimentos e atirando contra posições inimigas. Enxames de drones armados irão atacar tanques inimigos, radares e centros de comando. Veículos submarinos não tripulados (UUV) irão perseguir submarinos inimigos e navios na superfície. No início do combate, todos estes instrumentos serão, sem dúvidas, controlados por humanos. Ao passo em que se intensifica o combate, entretanto, a comunicação entre as sedes e linhas de frente pode muito bem ser perdida, e tais sistemas irão, de acordo com cenários militares que já estão sendo escritos, agir por si mesmos, com o poder de tomar ações letais sem nova intervenção humana.

A maior parte do debate sobre a aplicação de IA e seu futuro campo de batalha focou na moralidade de empoderar máquinas totalmente autônomas — às vezes chamadas de robos assassinos” — com a capacidade de tomar decisões de vida ou morte por si mesmas, ou se o uso de tais sistemas violaria a legislação de guerra e o direito humanitário internacional. Tais convicções requerem que os promotores da guerra sejam capazes de distinguir entre combatentes e civis no campo de batalha e poupar danos a estes últimos na maior extensão possível. Defensores da nova tecnologia alegam que máquinas irão se tornar inteligentes o suficiente para realizar tais distinções por elas mesmas, enquanto oponentes insistem que elas jamais irão se provar capazes de realizar tais distinções no calor da batalha e seriam incapazes de demonstrar compaixão quando apropriado. Um conjunto de organizações de direitos humanos e organizações humanitárias lançaou a Campanha para Parar Robôs Assassinos, com o objetivos de obter um banimento internacional do desenvolvimento de sistemas bélicos integralmente autônomos.

Ao mesmo tempo, um debate de consequências provavelmente mais importantes está emergindo no meio militar sobre a aplicação de IA no sistemas de comando e controle (CC) – isto é, para que os oficiais superiores comuniquem as principais ordens às suas tropas. Generais e almirantes sempre buscam maximizar a confiabilidade dos sistemas CC para garantir que suas intenções estratégicas sejam cumpridas da forma mais completa possível. Na era atual, tais sistemas são profundamente dependentes de sistemas seguros de comunicação por rádio e satélite que se estendem da sede até as linhas de frente. Entretanto, os estrategistas temem que, em um futuro ambiente de hiper-guerra, tais sistemas possam ser bloqueados ou degradados, assim como a velocidade dos combates comece a exceder a capacidade dos comandantes de receber relatórios de campo de batalha, processar os dados e despachar pedidos em tempo hábil. Considere isso como uma definição funcional do infame nevoeiro da guerra multiplicado pela inteligência artificial – com a derrota como um resultado provável. A resposta para tal dilema para muitos oficiais militares: deixar que as máquinas assumam esses sistemas também. Como um relatório do Serviço de Pesquisa do Congresso dos EUA sustenta, no futuro, “os algoritmos de inteligência artificial podem fornecer aos comandantes cursos de ação viáveis ​​baseados na análise em tempo real do espaço de batalha, o que permitiria uma adaptação mais rápida aos eventos que se desdobram”.

E algum dia, é claro, é possível imaginar que as mentes por trás de tal decisão deixarão de ser humanas. Os dados recebidos dos sistemas de informação do campo de batalha seriam canalizados para processadores de IA focados na avaliação de ameaças iminentes e, dadas as limitações de tempo envolvidas, executando o que eles consideram as melhores opções sem instruções humanas.

Oficiais do Pentágono negam que busquem qualquer um desses propósitos em sua pesquisa relacionada à IA. Eles reconhecem, no entanto, que podem pelo menos imaginar um futuro em que outros países delegam a tomada de decisões às máquinas e os EUA não veem outra opção senão seguir o exemplo, para não perder o terreno estratégico. “Não delegaremos autoridade letal a uma máquina para tomar uma decisão”, disse Robert Scharre, subsecretário de Defesa Robert Work, do Centro para uma Nova Segurança Americana em uma entrevista de 2016. Mas ele acrescentou a advertência usual: no futuro, “podemos nos colocar contra um concorrente que está mais disposto a delegar autoridade às máquinas do que nós e quando a competição se desenrolar, teremos que tomar decisões sobre como competir. “

“A decisão do juízo final”

A suposição na maioria desses cenários é a de que os EUA e seus aliados estarão engajados em uma guerra convencional contra a China e/ou Rússia. Tenhamos em mente então que que a própria natureza de uma futura hiperguerra promovida por IA só aumentaria o risco de que conflitos convencionais pudessem cruzar um limiar que nunca foi atravessado antes: uma guerra nuclear real entre dois Estados nucleares. E, caso isso aconteça, esses sistemas CC com tecnologia IA poderão, mais cedo ou mais tarde, encontrar-se em posição de lançar armas atômicas.

Tal perigo surge da convergência de múltiplos avanços na tecnologia: não apenas IA e robótica, mas o desenvolvimento de capacidades de ataque convencionais como mísseis hipersônicos capazes de voar a cinco ou mais vezes a velocidade do som, canhões eletromagnéticos e lasers de alta energia. Tais armas, embora não nucleares, quando combinadas com sistemas de identificação de alvos e vigilância de IA, poderiam até atacar as armas de retaliação de um inimigo, ameaçando assim eliminar sua capacidade de lançar uma resposta a qualquer ataque nuclear. Dado tal cenário de “use-os ou perca-os”, qualquer potência pode estar inclinada a não esperar, mas a lançar suas armas nucleares ao primeiro sinal de possível ataque, ou mesmo, temendo perda de controle em um engajamento incerto e acelerado, delegar autoridade de lançamento para suas máquinas. E uma vez que isso acontecesse, poderia ser quase impossível impedir uma nova escalada.

Surge então a questão: as máquinas tomariam melhores decisões que os humanos em tal situação? Elas certamente são capazes de processar grandes quantidades de informação em breves períodos de tempo e pesar os prós e contras de ações alternativas de uma maneira completamente sem emoção. Mas as máquinas também cometem erros militares e, acima de tudo, carecem da capacidade de refletir sobre uma situação e concluir: parem com essa loucura. Nenhuma vantagem de batalha vale a aniquilação humana global.

Como Paul Scharre pontuou em Army of None, um novo livro sobre IA e guerra, “Humanos não são perfeitos, mas eles podem criar empatia pelos seus oponentes e enxergar o quadro maior. Ao contrário deles, armas autônomas não teriam capacidade de compreender as consequências de suas ações, nem a capacidade de se afastar da beira da guerra.

Então, talvez devêssemos pensar duas vezes antes de dar à futura versão militarizada do Alexa o poder de lançar um Armagedon provocado por uma máquina.

Gostou do texto? Contribua para manter e ampliar nosso jornalismo de profundidade: OutrosQuinhentos