21/05/2021 às 21h53min - Atualizada em 21/05/2021 às 21h53min

Robôs Assassinos: O Pentágono marcha em direção à IA

O Pentágono avança para deixar robôs armados sob controle da I.A.

Luiz Custodio
Wired
A missão foi apenas um exercício militar, organizado pela Agência de Projetos de Pesquisa Avançada de Defesa (DARPA), uma divisão de pesquisa e desenvolvimento de armas do Pentágono; os robôs estavam armados com nada mais letal do que transmissores de rádio projetados para simular interações com robôs aliados e inimigos.
 

A missão foi apenas um exercício militar, organizado pela Agência de Projetos de Pesquisa Avançada de Defesa (DARPA), uma divisão de pesquisa e desenvolvimento de armas do Pentágono; os robôs estavam armados com nada mais letal do que transmissores de rádio projetados para simular interações com robôs aliados e inimigos.

O exercício foi um dos vários conduzidos no verão passado para testar como a inteligência artificial poderia ajudar a expandir o uso da automação em sistemas militares, inclusive em cenários que são muito complexos e rápidos para os humanos tomarem todas as decisões críticas. As demonstrações também refletem uma “mudança sutil” no pensamento do Pentágono sobre armas autônomas, à medida que se torna mais claro que as máquinas podem superar os humanos na análise de situações complexas ou operando em alta velocidade.

O general John Murray, do US Army Futures Command, disse a uma audiência na Academia Militar dos Estados Unidos no mês passado que enxames de robôs forçarão planejadores militares, legisladores e a sociedade a pensar se uma pessoa deve tomar todas as decisões sobre o uso de força letal em novos sistemas autônomos . Murray perguntou: “Está dentro da capacidade de um ser humano escolher quais devem ser engajados” e então tomar 100 decisões individuais? “É mesmo necessário ter um humano no circuito?” ele adicionou.

Outros comentários de comandantes militares sugerem interesse em dar mais agilidade aos sistemas de armas autônomos. Em uma conferência sobre IA na Força Aérea na semana passada, Michael Kanaan, diretor de operações do Acelerador de Inteligência Artificial da Força Aérea no MIT e uma voz de liderança em IA nas forças armadas dos EUA, disse que o pensamento está evoluindo. Ele diz que a IA deve realizar mais identificação e distinção de alvos em potencial, enquanto os humanos tomam decisões de alto nível. “Acho que é para isso que estamos indo”, diz Kanaan.

No mesmo evento, o tenente-general Clinton Hinote , vice-chefe de gabinete para estratégia, integração e requisitos do Pentágono, disse que se uma pessoa pode ser retirada do circuito de um “sistema autônomo letal” é “um dos debates mais interessantes que está chegando, [e] ainda não foi acertado”. 

Um relatório deste mês da Comissão de Segurança Nacional de Inteligência Artificial (NSCAI), um grupo consultivo criado pelo Congresso, recomendou, entre outras coisas, que os EUA resistam aos apelos por uma proibição internacional do desenvolvimento de armas autônomas.

Timothy Chung , o gerente do programa DARPA responsável pelo projeto de enxameação, diz que os exercícios do verão passado foram projetados para explorar quando um operador de drone humano deve, e não deve tomar decisões para os sistemas autônomos. Por exemplo, quando confrontado com ataques em várias frentes, o controle humano às vezes pode atrapalhar uma missão, porque as pessoas são incapazes de reagir com rapidez suficiente. “Na verdade, os sistemas podem ter um desempenho melhor sem a intervenção de alguém”, diz Chung.

Os drones e os robôs com rodas, cada um com o tamanho de uma grande mochila, receberam um objetivo geral e, em seguida, utilizaram algoritmos de IA para elaborar um plano para alcançá-lo. Alguns deles cercaram edifícios, enquanto outros realizaram varreduras de vigilância. Alguns foram destruídos por explosivos simulados; alguns foram identificados representando combatentes inimigos e optaram por atacar.

Os Estados Unidos e outras nações usam a autonomia em sistemas de armas há décadas. Alguns mísseis podem, por exemplo, identificar e atacar inimigos de forma autônoma em uma determinada área. Mas os rápidos avanços nos algoritmos de IA mudarão a forma como os militares usam esses sistemas. O código de IA de prateleira capaz de controlar robôs e identificar pontos de referência e alvos, muitas vezes com alta confiabilidade, tornará possível implantar mais sistemas robóticos em uma ampla gama de situações.

Mas, como destacam as demonstrações de drones, o uso mais difundido de IA às vezes tornará mais difícil manter um humano informado. Isso pode ser problemático, porque a tecnologia de IA pode abrigar preconceitos ou se comportar de maneira imprevisível .

Um algoritmo de visão treinado para reconhecer um determinado uniforme pode erroneamente ter como alvo alguém vestindo roupas semelhantes. Chung diz que o projeto do enxame presume que os algoritmos de IA serão aprimorados a um ponto em que possam identificar inimigos com confiabilidade suficiente para serem usados confiavelmente.

O uso de IA em sistemas de armas tornou-se controverso nos últimos anos. O Google enfrentou protestos de funcionários e protestos públicos em 2018 após fornecer tecnologia de IA para a Força Aérea por meio de um projeto conhecido como Maven .

Até certo ponto, o projeto faz parte de uma longa história de autonomia em sistemas de armas, com alguns mísseis já capazes de realizar missões limitadas independentemente do controle humano.  Mas também mostra como os avanços recentes na IA tornarão a autonomia mais atraente e inevitável em certas situações. Além do mais, ele destaca a confiança que será depositada em uma tecnologia que ainda pode se comportar de maneira imprevisível.

Paul Scharre , especialista do Center for New American Security e autor de Army of None: Autonomous Weapons and the Future of War , diz que é hora de ter uma discussão mais sofisticada sobre a tecnologia de armas autônomas. “A discussão em torno dos ‘humanos no circuito’ deveria ser mais sofisticada do que simplesmente um binário ‘eles são ou não são inimigos?’”, Diz Scharre. “Se um humano toma a decisão de enfrentar um enxame de drones inimigos, o humano precisa selecionar cada alvo individualmente?”

>O Departamento de Defesa emitiu uma política sobre armas autônomas em novembro de 2012, declarando que os sistemas de armas autônomas precisam ter supervisão humana – mas isso não significa necessariamente que os soldados tomem todas as decisões.

Aqueles que acreditam que os militares podem usar IA para cruzar um Rubicão quando se trata da responsabilidade humana pela força letal veem as coisas de forma diferente.

“Armas autônomas letais baratas o suficiente para que todo terrorista possa comprá-las não são do interesse da segurança nacional dos Estados Unidos”, diz Max Tegmark , professor do MIT e cofundador do Future of Life Institute , uma organização sem fins lucrativos que se opõe a armas autônomas.

Tegmark diz que as armas de IA devem ser “estigmatizadas e banidas como as armas biológicas”. A oposição do relatório NSCAI a uma proibição global é um erro estratégico, ele diz: “Acho que um dia [em breve] nos arrependeremos ainda mais do que de ter armado o Taleban”.


Link
Tags »
Notícias Relacionadas »
Comentários »