Pesquisadores afiliados à Força Aérea querem deixar a IA lançar armas nucleares

Um par de pesquisadores associados à Força Aérea dos EUA deseja dar códigos nucleares a uma inteligência artificial.

O diretor associado do Instituto de Tecnologia da Força Aérea, Curtis McGiffin, e o pesquisador do Instituto de Pesquisa Tecnológica da Louisiana, Adam Lowther, também afiliado à Força Aérea, co-escreveram um artigo – com o sinistro título ” América precisa de uma mão morta ” – argumentando que os Estados Unidos precisa desenvolver “um sistema automatizado de resposta estratégica baseado em inteligência artificial”.

Em outras palavras, eles querem atribuir à AI os códigos nucleares. E sim, como os autores admitem, isso parece muito com a “Doomsday Machine” da sátira de Stanley Kubrick de 1964 “Dr. Amor Estranho.”

A “Mão Morta” mencionada no título refere-se ao sistema semi-automático da União Soviética que lançaria armas nucleares se determinadas condições fossem cumpridas, incluindo a morte do líder da União.

Desta vez, porém, o sistema de inteligência artificial sugerido por Lowther e McGiffin nem esperaria o primeiro ataque contra os EUA – ele saberia o que fazer antes do tempo.

“[Pode ser necessário desenvolver um sistema baseado em inteligência artificial, com decisões pré-determinadas de resposta, que detecte, decida e direcione forças estratégicas com tanta velocidade que o desafio da compressão no tempo de ataque não coloca os Estados Unidos em um estado impossível posição ”, eles escreveram.

A compressão do tempo de ataque é o fenômeno em que as tecnologias modernas, incluindo radar altamente sensível e comunicação quase instantânea, reduziram drasticamente o tempo entre a detecção e o tempo de decisão. O desafio: tecnologias modernas de armas, principalmente mísseis e veículos hipersônicos de cruzeiro, abrem ainda mais a janela.

“Essas novas tecnologias estão reduzindo o tempo de decisão dos líderes seniores dos EUA a uma janela tão estreita que, em breve, será impossível detectar, decidir e direcionar efetivamente a força nuclear a tempo”, argumentam Lowther e McGiffin.

A idéia é usar uma solução baseada em IA para negar quaisquer capacidades ou vantagens surpreendentes de ataques de retaliação ao inimigo. Substituiria o que Lowther e McGiffin descrevem como um “sistema de sistemas, processos e pessoas” que “deve ser inevitavelmente capaz de detectar lançamentos em qualquer lugar do mundo e ter a capacidade de lançar um ataque nuclear contra um adversário”.

Não é de surpreender,  ressalta Matt Field, editor do Bulletin of the Atomic Scientists, que entregar os códigos nucleares a uma IA pode ter muitos efeitos colaterais negativos. Um deles é o viés de automação, como Field aponta em sua peça. As pessoas tendem a confiar cegamente no que as máquinas lhes dizem, até favorecendo a tomada de decisões automatizada sobre a tomada de decisões humana.

E há o simples fato de que a IA não tem muitos dados para executar, argumenta Field. Isso significa que a maioria dos dados fornecidos à IA seria simulada.

E se “Dr. Strangelove ”é algo a ser seguido, desde que todas as principais potências mundiais estejam cientes do sistema automatizado, isso pode impedi-las de atacar os Estados Unidos. Porque sem esse conhecimento, torna-se inútil – e corre o risco de aniquilação total.

Ou, como o próprio Dr. Strangelove coloca: “é claro que todo o objetivo da máquina do dia do juízo final será perdido se você guardar em segredo!”

Fonte: Futurism