20 Abril 2022
Agência estadunidense começou a desenvolver um instrumento baseado em deep learning que poderia um dia decidir como organizar os esforços de socorro das tropas sob ataque: outro passo para a automação da guerra.
A reportagem é de Andrea Daniele Signorelli, publicada em La Repubblica, 18-04-2022. A tradução é de Moisés Sbardelotto.
A inteligência artificial em âmbito militar recebeu uma promoção. Até hoje, as aplicações bélicas do deep learning sempre estiveram relacionadas aos chamados soldados robôs (mais corretamente, armas autônomas): drones, mísseis e não apenas teoricamente capazes de identificar os alvos por conta própria e disparar.
Trata-se de instrumentos que quase nunca foram usados em todas as suas potencialidades (o gatilho é pressionado por um ser humano) e que levantam tantos problemas éticos que uma importante campanha está em andamento há anos para pedir que sejam banidos.
De simples soldados, no entanto, os algoritmos agora poderiam se tornar oficiais. Em março, a Darpa – a agência para os projetos de pesquisa avançada da Defesa dos Estados Unidos, que no passado desempenhou um papel no nascimento da internet, do GPS e de muito mais – apresentou um projeto para desenvolver uma inteligência artificial capaz de decidir em questão de poucos segundos como organizar o resgate de uma tropa atingida por um ataque inimigo, como salvar o maior número possível de vidas após um atentado e outros cenários bélicos semelhantes.
Batizado de “In The Moment”, esse programa faz parte dos mais de 60 projetos relacionados ao emprego da inteligência artificial no setor da Defesa, financiados desde 2018 com mais de dois bilhões de dólares.
“O objetivo é desenvolver uma tecnologia capaz de tomar decisões muito rápidas em cenários extremamente estressantes, usando algoritmos e dados para remover os preconceitos humanos e, assim, salvar um número maior de vidas”, escreveu o Washington Post.
O “In The Moment” é um programa com uma duração estimada de três anos e meio, que envolve a colaboração de empresas privadas, embora não tenham sido divulgadas informações sobre quais empresas vão estar envolvidas ou demonstraram interesse, nem quantos recursos econômicos foram destinados a esse projeto.
Se e quando for concluído, esse sistema deverá ser capaz de enfrentar situações muito diferentes, que vão desde a organização dos esforços de socorro para pequenas unidades que sofreram grandes perdas no decurso de uma operação especial até atentados terroristas que podem provocar centenas de mortes entre civis.
Ao intervir após episódios desse tipo, o software da Darpa deve ser capaz de identificar em poucos segundos todos os hospitais disponíveis nos arredores, quais estão mais abastecidos com os recursos médicos necessários (por exemplo, suprimentos de sangue ou leitos vagos), como subdividir os feridos nas diversas estruturas, a quais feridos dar a prioridade e muito mais.
“As indicações do algoritmo replicariam as dos seres humanos com mais experiência no campo da triagem”, explicou Matt Turek, responsável pelo projeto da Darpa. Os algoritmos informáticos, continuou Turek, podem encontrar soluções das quais os humanos não são capazes, tendo a possibilidade de avaliar uma enorme quantidade de dados, soluções e diferentes cenários em tempos muito curtos.
Como muitas vezes ocorre no campo da tecnologia (pensemos nas interfaces cérebro-máquina ou na edição genética), as primeiras aplicações promovidas dizem respeito ao campo médico e à possibilidade de salvar vidas ou eliminar doenças. No entanto, isso não impede de imaginar que, se esse primeiro experimento da Darpa for bem-sucedido, os sistemas de inteligência artificial poderão no futuro decidir também como alocar as tropas em um cenário de guerra, qual estratégia adotar, quem atacar e muito mais.
Seria um enorme passo na direção da automação da guerra, que foi recentemente recomendada pela National Security Commission on AI (um órgão de consultoria do governo dos Estados Unidos) e que é duramente combatida por muitos especialistas, extremamente preocupados com as consequências éticas.
Será que uma máquina realmente pode escolher quem deve ser tratado primeiro quando os recursos forem limitados? E quem deve assumir a responsabilidade se o software tomar decisões erradas, causando a morte de inúmeros soldados ou civis? Não há o risco de desresponsabilizar as pessoas que, hoje, fazem esse tipo de escolhas fundamentais? E sobretudo: estamos realmente certos de que – por mais rápidos e eficientes que sejam no tratamento de grandes quantidades de dados – é possível confiar tarefas tão delicadas a instrumentos totalmente desprovidas de bom senso e da capacidade de enfrentar de formas novas situações inéditas ou imprevistas?
Dos algoritmos que se encarregam de selecionar os candidatos mais aptos para um trabalho até os de polícia preditiva que indicam às patrulhas quais áreas vigiar, sempre que os sistemas de deep learning foram aplicados em campos onde os aspectos éticos e de valor desempenham um papel importante papel, multiplicaram-se os problemas de discriminação, erros e inadequação.
Antes de utilizar instrumentos que até hoje se mostraram altamente problemáticas até mesmo nas situações de emergência mais graves, talvez devêssemos pensar nisso com muita atenção.
FECHAR
Comunique à redação erros de português, de informação ou técnicos encontrados nesta página:
E se a inteligência artificial decidisse quem deve ser salvo na guerra? - Instituto Humanitas Unisinos - IHU