Os EUA estão assustadoramente perto de uma corrida armamentista autônoma

Os sistemas de armas que pensam por si mesmos permanecem na infância, mas as pressões geopolíticas e a desconfiança podem forçá-los a ser usados ​​prematuramente.

Os EUA estão assustadoramente perto de uma corrida armamentista autônoma

Uma das principais tarefas do Pentágono é antecipar como serão as guerras do futuro para que possa alocar os recursos necessários para garantir que os EUA tenham a vantagem nessas batalhas. Quando as pessoas na indústria de defesa falam sobre as ferramentas da guerra futura, geralmente mencionam aplicações de IA, armamento autônomo e um papel muito diferente para seres humanos de sangue quente durante a batalha.



Essas tecnologias estão em seus estágios iniciais de maturidade; as forças de defesa ainda não entendem as melhores maneiras de implantá-los na batalha. Líderes militares em outros países ricos, incluindo China e Rússia , também estão falando sobre esses assuntos, embora não saibamos onde eles estão fazendo suas apostas.

Por uma série de razões - algumas antigas, outras novas - os EUA poderiam facilmente ser puxados para uma corrida para desenvolver e usar armas autônomas antes de entender como usá-las de maneira previsível, eficaz e ética.



Guerra Fria 2.o

Podemos entrar em um período de escalada que lembra a corrida armamentista nuclear entre os EUA e a ex-União Soviética durante a Guerra Fria.



Há uma corrida armamentista de IA em que estou preocupado com o seu desenvolvimento desta tecnologia e você está preocupado com o meu desenvolvimento desta tecnologia, e nenhum de nós comunica que está ciente das limitações, disse Chris Meserole, diretor de pesquisa e política para a Iniciativa de Inteligência Artificial e Tecnologia Emergente da Brookings Institution. Ele falou durante um Defence One / Nextgov painel de discussão sobre ética e política de IA.

Isso se transforma em uma profecia autorrealizável. . . você entra nessa espiral onde cada um assume que o outro tem a vantagem, explicou Meserol. Você pode acabar em uma situação em que já está lutando, quando nenhuma das partes queria.

Essa paranóia mútua pode ser ainda pior com sistemas de armas autônomos. O desenvolvimento de tais sistemas está se movendo mais rápido do que o das armas nucleares e está se acelerando. Muitos nos círculos de defesa dos EUA acreditam que a China já tem uma vantagem. O governo centralizado da China, dizem eles, pode se mover mais rápido do que o governo dos Estados Unidos para alavancar o desenvolvimento do setor privado de IA e tecnologia autônoma e transformá-los em aplicações militares.



Os sistemas autônomos são diferentes de uma maneira mais fundamental. Onde as ogivas nucleares são um tipo singular de armamento, a IA é uma tecnologia capacitadora que pode ser usada em muitos tipos de armas e sistemas de apoio. Até mesmo um míssil nuclear pode ser equipado com um sistema de IA que lhe daria a capacidade de pesquisar e destruir um alvo específico.

Especialistas dizem que a IA pode mudar radicalmente o combate aos soldados. Os humanos serão solicitados a digerir rapidamente e agir com base em grandes quantidades de dados enquanto controlam - ou se defendem contra - sistemas de armas autônomos, como enxames de drones. Eles vão receber dados de sensores montados em armas, satélites e corpos de soldados. O lado com os melhores dados e os meios mais rápidos de processá-los pode ter a vantagem. O medo de obter essa vantagem pode forçar um ator estatal a acelerar o desenvolvimento de sistemas autônomos, talvez sem abordar questões de confiabilidade ou ética.

Humanos: o elo mais fraco

O secretário da Força Aérea Charles Brown me disse em uma entrevista em abril que, para que os sistemas de armas autônomas sejam usados ​​de maneira previsível e ética, um tomador de decisões humano deve estar sempre na cadeia de matança para aprovar suas ações. Mas é provável que, à medida que os sistemas autônomos se tornam mais avançados, o ser humano no circuito se tornará o fator que impede a velocidade e a eficácia do sistema. Os humanos não serão capazes de acompanhar as máquinas que estão lutando em seu nome.



O Major General aposentado John G. Ferrari, que também participou do painel Defense One / Nextgov, ilustrou o ponto traçando um paralelo entre armas autônomas e veículos autônomos. O mais seguro dos carros autônomos de hoje pode exigir que um humano esteja no volante, mas os especialistas dizem que, à medida que os sistemas de direção autônoma melhoram e amadurecem, eles quase certamente provarão ser mais seguros na estrada do que os motoristas humanos. Afinal, os motoristas humanos podem ficar cansados, distraídos ou prejudicados de alguma outra forma; redes neurais e sensores, não.

Os sistemas de IA podem ter ainda mais vantagens em batalha. A Agência de Projetos de Pesquisa Avançada de Defesa (DARPA) demonstrou isso quando comparou um sistema de IA contra um piloto de caça humano experiente em uma série de combates aéreos simulados. A IA derrotou o piloto de caça humano por 5 a 0 por meio de manobras agressivas e precisas que o piloto humano não conseguiu superar, disse a DARPA. O piloto humano relatou que o piloto AI estava usando táticas suicidas durante a luta.

Bem, sem brincadeira. . . não tem medo, não tem cansaço, tantas vantagens, disse o general aposentado Tony Thomas, agora sócio da Lux Capital, em recente Invista como o melhor podcast .

E, no entanto, a comunidade de pilotos de caça quer segurar um cara ou uma garota em uma cabine, disse Thomas. Para mim, não quero que meus filhos enfrentem alguma tecnologia de caça habilitada para IA no futuro. Precisamos dar um salto à frente agora; precisamos tornar o céu negro com recursos automatizados.

O futuro próximo da guerra

O campo de batalha autônomo pode estar chegando mais rápido do que a maioria das pessoas pensa. As Forças Armadas dos EUA têm usado drones controlados em solo desde a década de 1990, e agora é sério sobre o financiamento de empresas de tecnologia que desenvolvem enxames de drones autônomos, bem como empresas, como Anduril , que desenvolvem tecnologias que podem se defender contra drones autônomos.

Mas os EUA estão abordando essas tecnologias com mais cautela do que alguns de nossos adversários. A Rússia aceita um pouco mais os riscos em sua disposição de usar essas tecnologias, disse Meserole do Brookings Institute durante o painel Defense One / Nextgov. Acredita-se que a Rússia usou drones autônomos para matar alvos no solo na Síria.

Em um exemplo mais extremo, o uso do Azerbaijão de produtos fornecidos por Israel Drones IAI Harop no país guerra com a Armênia em 2020 provou ser decisivo. Os drones, que podem operar de forma autônoma, circularam sobre a linha de defesa armênia até que pudessem detectar um radar ou sinal de calor de uma bateria de mísseis ou tanque no solo. Então eles mergulharam e se chocaram, ao estilo kamikaze, contra os alvos. Os armênios tinham uma força aérea avançada com aviões de combate caros, mas de pouca utilidade contra o ataque de drones do Azerbaijão. Os drones eram pequenos e leves, difíceis de detectar e muito difíceis de abater com armas convencionais.

Os drones quebrou o moral das forças armênias . Os soldados no solo sabiam que poderiam ser atingidos por um drone circulando no alto a qualquer momento. Os drones são tão silenciosos que não ouviriam o zumbido das hélices até que fosse tarde demais. E mesmo que os armênios conseguissem abater um dos drones, o que eles realmente realizaram? Eles simplesmente destruíram uma peça da máquina que seria substituída. A maioria das vítimas armênias e perdas de equipamentos vieram como resultado de ataques de drones. Soldados azerbaijanos e armênios raramente se viam. Foi um tipo muito diferente de guerra e provavelmente uma prévia das guerras entre atores estatais no futuro.

O conflito levantou algumas questões básicas sobre a moralidade da guerra autônoma. O Azerbaijão venceu a guerra com a Armênia não porque demonstrou uma maior disposição para lutar ou sacrificar vidas, mas porque entendia as forças de defesa armênias e tinha dinheiro suficiente (em parte do fornecimento de gás natural para a Europa) para comprar drones caros de Israel. Vencer é realmente vencer se você não tem pele humana no jogo? Aparentemente sim. A Armênia se rendeu. Foi apenas a segunda rendição de qualquer país em qualquer guerra desde a Segunda Guerra Mundial.

O que tem e o que não tem

A grande maioria dos países não terá acesso a essa tecnologia, disse Mary Wareham, diretora de defesa da divisão de armas da Human Rights Watch, durante o painel Defense One / Nextgov. Eles estão muito preocupados com os três países que o fazem. Eles não querem abdicar da responsabilidade de regulamentar essa tecnologia para. . . China, Rússia e Estados Unidos.

O mundo em desenvolvimento está extremamente preocupado com a guerra autônoma.

Mary Wareham, Human Rights Watch Se as potências mundiais forem apanhadas em uma competição crescente para desenvolver armas autônomas cada vez mais letais - e maneiras de se defender delas - não serão apenas os soldados que perderão vidas. O conflito Azerbaijão-Armênia ocorreu dentro das fronteiras dos dois países. Mas é fácil imaginar dois países ricos travando uma guerra autônoma no solo e no ar por um país mais pobre.

O mundo em desenvolvimento está extremamente preocupado com a guerra autônoma, disse Wareham. Eles estão extremamente preocupados com a necessidade de proteger a dignidade humana - ser morto por uma máquina é uma forma muito indigna de morrer e é um método de guerra covarde.

Muitos americanos concordam. De acordo com um 2020 Human Rights Watch / Ipsos pesquisa de 19.000 pessoas em 28 países,mais da metade dos entrevistados americanos (55%) são a favor de uma proibição de armas autônomas, assim como 58% dos entrevistados russos e 53% dos chineses.

Os EUA não estão atualmente envolvidos em negociações de alto nível com a China, Rússia e outros países sobre o estabelecimento de diretrizes éticas para o uso de armas autônomas. No entanto, essas conversas estão ocorrendo entre pesquisadores na academia e em grupos de reflexão em países que agora estão desenvolvendo tais armas.

Mas a janela de oportunidade para conversar e fazer acordos pode estar se fechando rapidamente, experts medo , à medida que o trabalho com as armas avança e aumenta a pressão sobre os militares dos países desenvolvidos para manter o ritmo.

data de lançamento do youtube rewind 2019