01 Setembro 2021
No verão passado, em agosto, algumas dezenas de drones militares e vários pequenos robôs-tanque simularam um ataque aéreo e terrestre a cerca de cinquenta quilômetros ao sul de Seattle. O objetivo era atingir terroristas que estavam escondidos em alguns edifícios. O exercício, organizado pela Darpa, a agência que trata dos projetos tecnológicos de ponta do Pentágono, foi usado para testar a capacidade da inteligência artificial de gerenciar situações complexas em zonas de guerra "à velocidade da luz".
A reportagem é de Riccardo Luna, publicada por La Repubblica, 30-08-2021. A tradução é de Luisa Rabolini.
De fato, os drones e os robôs, uma vez identificado o alvo, faziam sozinhos um plano para atingi-lo usando algoritmos de inteligência artificial. O episódio, relatado pela Wired, voltou à minha memória quando li a notícia da ação militar estadunidense contra supostos terroristas no Afeganistão via drones: foi usada a inteligência artificial? E em que medida? Quem realmente puxou o gatilho? De acordo com a Wired, o Pentágono há muito tempo está repensando a necessidade de manter "humans in the loop" quando se trata de operações militares com armas autônomas. Resumindo, é possível abrir mão dos humanos?
O debate já se arrasta há algum tempo, oficialmente a regra diz que a inteligência artificial deve "permitir que os operadores possam exercer um nível adequado de juízo humano sobre o uso da força". Mas isso significa que um humano tem que aprovar cada vez que um drone puxa o gatilho? No caso do exercício de Seattle, a DARPA concluiu que, em alguns casos, exigir que humanos tomem cada uma das decisões levaria ao fracasso da missão "porque nenhuma pessoa é capaz de tomar tantas decisões simultaneamente". A inteligência artificial na guerra nem sempre precisa de nós, é a tese que avança. Aliás, precisa cada vez menos de nós: ou pelo menos eles querem nos convencer de que é assim.
Ainda de acordo com a Wired, o general John Murray (US Army Futures Command), em uma conferência de militares em abril passado, disse que a possibilidade de enviar ao ataque bandos de robôs autônomos nos obrigará a reconsiderar se uma pessoa pode ou deve tomar todas as decisões sobre o uso da força. “Está ao alcance de um ser humano tomar centenas de decisões ao mesmo tempo? E é realmente necessário manter os seres humanos na cadeia de decisão?”.
A primeira resposta no campo chegou, algumas semanas depois, do violento conflito entre Israel e Hamas em maio. Poucos dias após o cessar-fogo, de fato, vieram as primeiras confirmações do governo israelense de que aquele conflito foi "a primeira guerra de inteligência artificial", a primeira guerra conduzida predominantemente por meio de algoritmos de inteligência artificial. A inteligência artificial foi utilizada tanto na fase defensiva, para determinar as trajetórias dos mísseis lançados contra Israel, interceptando apenas aqueles direcionados a áreas habitadas ou alvos sensíveis, e ignorando os demais; quanto na fase de ataque, em Gaza.
De acordo com o The Jerusalem Post, os soldados da Unidade 8200, uma unidade de elite da divisão de inteligência, usaram algoritmos para realizar várias ações chamadas "Alchemist, Gospel, Depth of Wisdom", usando dados que vieram em tempo real de muitas fontes diferentes para os supercomputadores que geravam recomendações sobre onde estavam os alvos a atingir. Na vanguarda, segundo relatos, muitas vezes havia "bandos de drones de combate" e autônomos. Segundo os militares israelenses, isso também serve para minimizar as baixas entre os civis, mas nos dias do conflito de maio foram numerosas e também houve muitas crianças. Se o objetivo não era atingir civis, não foi alcançado.
Na realidade, o conflito de maio em Israel teria pelo menos um precedente: de acordo com um relatório das Nações Unidas, em 27 de março de 2020 o primeiro-ministro líbio al-Sarraj teria ordenado a "Operação Peace Stom", ou seja, o ataque por drones autônomos, contra as forças de Haftar. Os drones, diz o relatório, "têm sido usados em combate há vários anos, mas o que torna aquele ataque diferente é que os drones operavam sem intervenção humana", ou seja, depois de serem enviados para o ataque, eram autônomos na tomada de decisões: “The lethal autonomous weapons systems were programmed to attack targets without requiring data connectivity between the operator and the munition: in effect, a true 'fire, forget and find' capability".
Em suma, os robôs-assassinos já estão entre nós, apesar dos protestos de muitas organizações humanitárias que veem nesta passagem uma desumanização da guerra, sua transformação em um videogame, mas real. É a mesma coisa que está acontecendo no Afeganistão atualmente? O drone com lâminas rotativas foi usado pelos EUA para atingir supostos terroristas era autônomo, depois de lançado? Ou ainda havia "humans in the loop"? Enquanto isso, crescem os temores de que os próprios terroristas, para seus ataques, usem sistemas de inteligência artificial totalmente autônomos para nos atingir melhor.
Um relatório, datado de 2021, do Departamento Antiterrorismo das Nações Unidas, intitulado "Algoritmos e Terrorismo: Os Maus Usos da Inteligência Artificial por Terroristas", alerta para uma ameaça que é realista pensar que já existe. Os terroristas, diz o relatório, são sempre os primeiros a adotar novas tecnologias. De acordo com Max Tegmark, um professor do MIT citado pela Wired que é responsável pelo Future Life Institute, armas guiadas por sistemas de inteligência artificial autônomos deveriam ser banidas como as armas biológicas. Mas é uma posição que parece ter cada vez menos consenso na realidade dos fatos.
FECHAR
Comunique à redação erros de português, de informação ou técnicos encontrados nesta página:
Afeganistão e o primeiro conflito liderado por uma inteligência artificial - Instituto Humanitas Unisinos - IHU