21 Fevereiro 2025
"As fantasias distópicas sobre os futuros usos das máquinas na guerra são mais comuns do que o relato do que já está acontecendo nos campos de batalha. A guerra por meio de algoritmos e inteligência artificial é uma realidade e já tirou a vida de milhares de pessoas em Gaza e em outros conflitos. Sua regulamentação é quase inexistente", escreve Pablo Elorduy, formado em História da Arte e trabalha como jornalista desde 2008, publicado por El Salto, 20-02-2025.
"Blade Runner", "2001: Uma Odisseia no Espaço", "O Exterminador do Futuro", "Matrix" ou "Her" recriaram na tela um dos maiores temores da humanidade: o do sinistro golem, a criatura que se emancipa de seu criador e acaba aniquilando-o. Mas o risco mais urgente vem de algo tão antigo quanto a mistura entre poder militar, interesse econômico e o oportunismo de sistemas políticos cada vez mais autoritários. Essa combinação ocorre dentro do contexto do capitalismo tardio, no qual os “riscos catastróficos” de uma hipotética emancipação das máquinas são mais divulgados do que os efeitos reais desse armamento, que já foi utilizado por exércitos como os dos EUA, Israel, Rússia, China e Turquia.
Em 18 de fevereiro, uma investigação publicada pela Associated Press revelou o aumento do uso, por parte do exército israelense, da tecnologia da Microsoft e da OpenAI. O estudo, baseado em “documentos internos, dados e entrevistas exclusivas com atuais e ex-funcionários israelenses e empregados da empresa”, é a primeira evidência concreta de algo que já vinha sendo denunciado há meses: o uso de modelos de IA comerciais, como o GPT, pelo exército de Israel para cometer massacres.
Os nomes desses softwares, capazes de matar dezenas de pessoas com uma simples operação, poderiam ser os de produções cinematográficas: Hasbora, Replicator, Hivemind. Já as empresas que os criam e vendem no mercado nebuloso da inteligência artificial são um pouco mais conhecidas: Palantir, Anduril, Shield AI. E elas não funcionariam, pelo menos não no auge de sua capacidade, sem os dados fornecidos pelas gigantes da tecnologia — Google, Amazon, Microsoft, Meta e OpenAI —, cada vez mais seduzidas pelo som das espadas digitais e alinhadas ao projeto cultural, econômico e político encarnado pelo novo César americano, Donald Trump.
A pesquisadora Jessica Dorsey não deixa dúvidas: “A guerra é e continuará sendo uma iniciativa humana, mesmo com o avanço da tecnologia”. Dorsey é professora da Faculdade de Direito da Universidade de Utrecht e dirige o projeto Realidades da Guerra Algorítmica, que investiga os usos teóricos da tecnologia e a prática da seleção maquinal de alvos militares.
Essa guerra das máquinas é um fator cada vez mais determinante nos conflitos armados, seja por meio de algoritmos letais, dos temidos enxames de drones, de sistemas de inteligência e cibersegurança, do reconhecimento facial, seja de ameaças associadas à guerra híbrida, como ataques cibernéticos e o uso de deepfake — métodos de falsificação digital. A questão, portanto, não é se as máquinas um dia se erguerão para colocar sua bota sobre o rosto da humanidade, mas sim como já estão sendo usadas para travar guerras, violar liberdades civis e silenciar populações dissidentes.
O uso massivo dessas tecnologias pelas Forças de Defesa de Israel, que há anos se referem à inteligência artificial como um “multiplicador de força”, envia uma mensagem clara ao mundo: a máquina de assassinatos em massa não é uma hipótese, mas uma realidade capaz de transformar a guerra e acelerar o genocídio.
Como sempre acontece quando se trata de guerra, o complexo militar dos Estados Unidos leva vantagem tanto no uso — as execuções extrajudiciais por drones remontam ao governo de Barack Obama na primeira década do século — quanto nos debates sobre a funcionalidade da inteligência artificial nos conflitos. A transição do que já fazem para o que farão no futuro é pequena, tornando difícil, na prática, diferenciar entre guerra algorítmica e guerra baseada em IA. Alguns dizem que a separação equivale a acionar um interruptor, como resumiu uma frase dita pelo ex-diretor da CIA, David Petraeus: “Em algum momento, um humano dirá: ‘Está bem, máquina. Você está livre para agir de acordo com o programa que estabelecemos para você’, em vez de pilotá-la remotamente”.
No entanto, como aponta um relatório do AI Now Institute, que investiga as implicações sociais e políticas dessa tecnologia, a conversa dentro do Pentágono tem se concentrado nas hipóteses de um possível uso malicioso por meio dos sistemas chamados CBRN, que abrangem armas com potencial de destruição em massa, como químicas, biológicas, radiológicas e nucleares. Essas visões, muitas vezes tecnofetichistas, que destacam os aspectos mais sombrios e fantasiosos da inteligência artificial, acabam prevalecendo sobre o estudo de seus usos atuais, os chamados ISTAR: inteligência, vigilância, seleção de alvos e reconhecimento. O funcionamento desses sistemas não é amplamente escrutinado pelo público, principalmente porque, na maioria das vezes, ainda há um humano "no circuito" da tomada de decisões. No entanto, cada vez mais, as máquinas oferecem aos humanos a capacidade de tomar mais decisões e em maior velocidade por meio do “uso militar informado de sistemas de apoio à tomada de decisões habilitados por IA (IA-DSS)”.
O uso de drones tem sido massivo tanto na Ucrânia quanto no Oriente Médio. Não apenas em Gaza, onde a unidade de ciberguerra 8200 das forças armadas de Israel (FDI) reconheceu o uso de IA na seleção de alvos, mas também na Síria e na Líbia, onde tecnologias autônomas ou semiautônomas são capazes de identificar e eliminar alvos. Essas máquinas de guerra inteligentes oferecem um valor crítico: a “velocidade” na tomada de decisões, um dos principais problemas que especialistas civis e militares apontam como determinante no uso e no abuso dessas tecnologias. No entanto, essa velocidade também significa um aumento no número de erros.
"A guerra autônoma aumenta o número de baixas humanas, eleva enormemente o risco de ataques contra alvos errados, coloca os civis em perigo em maior escala e aumenta a probabilidade de que o pessoal militar que confia em algoritmos para gerar listas de alvos experimente uma sensação de desconexão emocional e moral do ataque que está aprovando", destacou em novembro de 2024 o think tank Public Citizen.
Um ano antes, em novembro de 2023, uma investigação dos meios palestino-israelenses +972 Mag e Local Call revelou o uso do software Hasbora — literalmente "o Evangelho" — pelas FDI na seleção de alvos em Gaza. O salto quantitativo é significativo: se antes da chegada dos algoritmos as FDI podiam estabelecer um intervalo de 50 alvos anuais, na campanha de genocídio iniciada em outubro de 2024, esse volume saltou para cem alvos por dia.
"O grande volume de alvos produzidos aumenta a probabilidade de mais ataques, em grande parte devido ao viés de ação cognitiva", afirmam Jessica Dorsey e Marta Bo, pesquisadora do Instituto Internacional de Pesquisa para a Paz de Estocolmo (SIPRI). Esse viés, explicam, "refere-se à tendência humana de agir, mesmo quando a inação logicamente proporcionaria um resultado melhor".
A cumplicidade de empresas como Google, Amazon ou Microsoft nesta operação de extermínio por meio dos softwares Hasbora, Lavender ou Where’s Daddy? ([literalmente, "onde está o papai?"] sim, é esse o tipo de humor genocida) foi denunciada pela campanha No Tech for Apartheid. O motivo é que, sem as informações fornecidas pelos meios de comunicação social e pelo big data, por meio de acordos como o Projeto Nimbus, assinado em 2021 pelo Google e Amazon com as autoridades israelenses, as Forças de Defesa de Israel não teriam tido a capacidade material de realizar uma massacre dessa magnitude.
No início deste mês de fevereiro, o Google fez uma mudança em suas comunicações, eliminando uma cláusula introduzida em 2018 que proibia o desenvolvimento de IA destinada a fins militares, especialmente para armas e vigilância, sob o pretexto de que as democracias “não podem ficar para trás” nessa inovação. Assim, a empresa fundada por Larry Page eliminou de seus compromissos éticos as seções destinadas a indicar a renúncia ao fornecimento de software para “armas ou outras tecnologias cujo principal propósito ou implementação seja causar ou facilitar diretamente danos às pessoas”, bem como as “tecnologias que coletem ou utilizem informações para vigilância violando normas internacionalmente aceitas”.
No entanto, não se tratava de uma mudança de política. Apenas duas semanas antes, o jornal Washington Post publicava uma investigação sobre como Israel pediu ao Google para ampliar urgentemente o uso de um serviço chamado Vertex, para a aplicação de algoritmos de IA aos seus próprios dados. Embora não se conheça a aplicação direta desses serviços, o mesmo artigo menciona que o diretor-geral da Direção Nacional Cibernética do governo israelense indicou em uma conferência que “graças à nuvem pública Nimbus, estão acontecendo coisas fenomenais durante os combates, coisas que desempenham um papel importante na vitória; não entrarei em detalhes”.
A Open AI também deu um passo para se integrar aos novos tempos de poder duro. Em 2024, a Open AI anunciava uma revisão de suas políticas éticas e passava a formar parte do circuito de contratados do exército dos EUA, participando através de seu software em missões do Comando da África dos Estados Unidos (AFRICOM). Em janeiro, a empresa de Sam Altman, a mais conhecida entre as focadas em inteligência artificial, anunciava um acordo com a Anduril, fabricante de mísseis, drones e software para o Exército dos EUA. O CEO dessa empresa — que é financiada pelo Founders Fund, fundo no qual participa Peter Thiel — destacou que a colaboração com a Open AI trará “soluções responsáveis que permitam aos operadores militares tomar decisões rápidas e precisas em cenários de alta pressão”.
Segundo a Wired, a Anduril trabalha em uma das armas consideradas potencialmente mais avançadas em todo o catálogo da IA militar: os enxames de drones. Os drones são uma realidade na guerra desde a primeira década do século, mas seu futuro passa pela multiplicação e sua coordenação por meio de um modelo extenso de linguagem (LLM, na sigla em inglês), relegando cada vez mais o operador humano a um papel secundário.
Em novembro, a Palantir e a startup Anthropic anunciavam um acordo com a Amazon Web Services (AWS) — a nuvem da Amazon, sua linha de negócios mais lucrativa — para disponibilizar os serviços de Claude, a concorrente dos modelos GPT. Novamente, repete-se o mesmo mantra: disponibilização de ferramentas complexas para uma tomada de decisões aceleradas no contexto de “operações governamentais vitais”, conforme descrito pela própria Palantir em seu site.
Em novembro, a Meta anunciava sua entrada no negócio da guerra por meio do Llama, seu modelo LLM, e de sua parceria com a Scale AI, próspera contratante de defesa, segundo informações do The Intercept, que também destacavam as falhas no produto da empresa de Mark Zuckerberg.
Uma investigação de Roberto J. González para o Instituto Watson estimava em 53 bilhões o valor total dos contratos assinados pelo Pentágono com as empresas de tecnologia. A percepção é que isso está apenas começando.
Em um artigo publicado em outubro de 2024, as pesquisadoras Heidy Khlaaf e Sarah Myers West recomendavam “que, para limitar a proliferação de armamentos de IA, pode ser necessário isolar os sistemas de IA militares” dos “dados pessoais comerciais”, que são fornecidos às principais plataformas sociais. “Seria necessário questionar o papel das empresas de tecnologia, uma vez que grande parte do discurso é impulsionado por elas e não existe uma verdadeira prestação de contas democrática da parte delas”, defende Jessica Dorsey, que acrescenta que deveria ser feito mais “para garantir uma transparência e uma prestação de contas significativa das empresas de tecnologia quando seus sistemas são utilizados em esforços bélicos”.
Pere Brunet, catedrático de Linguagens e Sistemas Informáticos da Universidade Politécnica da Catalunha, acredita que é necessário repensar o conceito de nuvem e redes sociais: “As administrações devem cuidar da população e, portanto, não podemos deixar nossos dados nas mãos privadas. E deve haver garantias de que sejam utilizáveis para o bem das pessoas e não para outros fins”, resume este pesquisador.
Brunet usa o neologismo “tecnotraficantes” para definir os entusiastas da IA que proliferam em todo tipo de textos acadêmicos e jornalísticos. As loas acríticas a essas tecnologias calaram na visão midiática predominante sobre a inteligência artificial como um todo, apresentando como uma solução o que hoje é apenas um balbucio tecnológico. Em grande parte, a IA atual não pensa. Não é, portanto, inteligente, mas prevê e cria modelos a partir de estatísticas e informações já codificadas. Para Brunet, a inteligência artificial atualmente está em uma fase preliminar e não resolveu três problemas determinantes e sem solução nem a curto nem a médio prazo; também não resolveu um quarto elemento igualmente problemático, que não está relacionado com as soluções que a IA traz, mas com os requisitos para seu funcionamento.
Em primeiro lugar, aponta Brunet, está a imprecisão inerente às inteligências artificiais, especialmente as baseadas em modelos extensos de linguagem (LLM). “Existe uma porcentagem de erro que nunca vai ser nula”, detalha Brunet, que atualmente realiza pesquisas para o Centre Delàs d'Estudis per la Pau. O segundo fator, mais conhecido, é o dos vieses. Essa denúncia é mais frequente nos estudos e publicações que abordam o racismo, machismo e outros tipos de discriminação no uso aparentemente neutro da linguagem algorítmica. Em terceiro lugar, está o fator da não explicabilidade dos processos pelos quais a IA propõe uma solução; algo que não tem resposta a curto prazo. “O quarto problema é a pegada ecológica, da qual se fala cada vez mais”, destaca Brunet.
Como ele mesmo menciona em um artigo publicado pelo Fórum Transições, o ritmo de consumo energético da inteligência artificial aumenta entre 26% e 36% a cada ano, e as emissões de CO2 equivalentes também crescem geometricamente. Tanto a Amazon quanto a Microsoft já firmaram acordos para o acesso a energia de reatores nucleares para o fornecimento de seus centros de dados, e estima-se que as necessidades geradas pela IA tornarão necessários novos centros com um consumo equivalente ao de cinco reatores de energia atômica.
Os quatro fatores apontados por Brunet, que se aplicam ao conjunto da IA, têm uma relevância especial em sua vertente militar. O fato de não estar aperfeiçoada, no entanto, não diminui o perigo. Vamos por partes. Em primeiro lugar, a questão ambiental está determinada por uma circunstância: segundo o Acordo sobre Mudança Climática de Paris (COP21), os Estados não são obrigados a quantificar as emissões de gases de efeito estufa provenientes do setor militar. Assim, à medida que cresce a demanda por produtos autônomos baseados em algoritmos e inteligência artificial com usos militares — ou de duplo uso — aumentarão as emissões causadoras da crise climática, mesmo que se chegue a zero nas emissões dos outros setores.
Os outros três elementos que definem a IA também têm um peso crucial na aplicação militar dessas tecnologias. Em primeiro lugar, a falibilidade se tornou motivo de piada para os especialistas em Defesa. Uma pergunta aos sistemas atuais sobre qual tipo de armamento pesado deve ser usado para a destruição de edifícios gera resultados deficientes, como é destacado nos fóruns de entusiastas de mísseis. Mas o principal fator de risco nesse campo é a seleção de alvos, que já está sendo realizada por sistemas algorítmicos: tanto a possibilidade de cometer erros de identificação quanto o fato de que ninguém jamais será responsabilizado por esses erros. Um dos erros mencionados no artigo da Associated Press publicado em 18 de fevereiro é de natureza linguística, causado por uma tradução automática incorreta do árabe para o hebraico, o que levou à seleção errada de alvos.
De fato, as informações fornecidas pelas próprias FDI reconhecem uma precisão de 90% nos alvos, o que equivale a admitir que um em cada dez assassinatos extrajudiciais termina com a morte de um inocente. A aplicação militar da IA leva, assim, a um maior número de erros provocados pela identificação deficiente, com vieses racistas e de gênero, ou pelo fato de não haver um responsável final, o que favorece comportamentos irresponsáveis.
Dorsey introduz uma dose de desmitificação em relação aos discursos desses "tecnotraficantes" sobre a aplicação da IA: “Embora muitas vezes se prometa que esses sistemas são mais ‘eficazes’ ou ‘precisos’, a realidade no campo confirma uma história diferente: se esses sistemas fossem mais precisos ou eficazes para erradicar a ameaça do Hamas, por exemplo, a guerra não teria se prolongado tanto e os danos a Gaza, por exemplo, não seriam tão grandes. O nível de dano aos civis é catastrófico e, como concluiu a Anistia Internacional em dezembro, genocida. Esses sistemas exacerbam as concepções errôneas sobre as obrigações e interpretações legais e permitem a destruição em grande velocidade e escala”, explica a pesquisadora das Realidades da guerra algorítmica.
O terceiro fator, a não explicabilidade das decisões, ganha uma relevância sinistra quando se aplica ao campo militar. Os sistemas não são projetados para explicar os passos dados em suas propostas de decisão. Isso implica que a prestação de contas seja ainda mais difícil do que já é no âmbito militar.
A segunda era de Donald Trump na Casa Branca começou, como se esperava, com a revogação das medidas de proteção e salvaguardas aos sistemas de inteligência artificial – a Ordem Executiva de outubro de 2023 aprovada pela presidência de Joe Biden – e a emissão de uma nova ordem para “derrubar as barreiras” à inovação em prol, entre outros objetivos, da “segurança nacional”. Trump também nomeou David Sacks, empresário sul-africano-americano e um dos membros do grupo informal da “máfia PayPal” (do qual saíram Elon Musk e Peter Thiel), como responsável pelas políticas sobre inteligência artificial.
Em janeiro deste ano, Trump anunciava junto aos dirigentes da Open AI, Oracle e Soft Bank o lançamento do Stargate, um projeto de 500 bilhões de dólares destinado à proteção da segurança nacional dos EUA e seus aliados.
O portal Tech Policy pressagiava um uso “intensivo” desses sistemas pela nova administração, também para vigilância e controle da população, assim como para a “deportação em massa” encomendada ao czar antimigração, Tom Homan.
Os fundos de capital de risco aumentaram nos últimos anos seu investimento em tecnologia de defesa, e as próprias empresas de tecnologia se voltaram para a "segurança" em busca de maior margem de lucro. Com os EUA na vanguarda dessa nova indústria armamentista, é improvável que o resto das potências internacionais opte pela cautela. Apesar dos usos cada vez mais frequentes da IA, a Lei de Inteligência Artificial da UE, que entrou em vigor em 2024, não contempla os usos militares ou de segurança nacional da inteligência artificial. A UE não fez nada específico nesse sentido, aponta a pesquisadora Jessica Dorsey em suas respostas ao El Salto. “É necessário trabalhar muito mais para abordar a IA militar de uma perspectiva europeia”, observa a responsável pelo grupo de estudos Realidades da guerra algorítmica.
Em julho de 2023, o secretário-geral da ONU, António Guterres, solicitou que os Estados adotem até 2026 um "instrumento juridicamente vinculante para proibir os sistemas de armas autônomas letais que funcionam sem controle ou supervisão humana e que não podem ser usados em conformidade com o direito internacional humanitário". O Comitê Internacional da Cruz Vermelha também pediu a proibição daqueles sistemas demasiado complexos para entender ou explicar e que carecem de um certo nível de controle humano. No entanto, a vontade de chegar a esse acordo pode ser insuficiente diante do potencial destrutivo que a inteligência artificial tem sobre a já fragilizada ordem internacional baseada em regras.
Como foi apontado, os riscos do uso da IA ameaçam diretamente o direito internacional humanitário e o direito internacional dos direitos humanos. No caso do direito internacional humanitário, teme-se que, por padrão, sejam aplicados os níveis mais baixos de proteção, como denuncia Brianna Rosen. Entre as propostas das organizações que alertam sobre o avanço descontrolado dessa tecnologia está que drones e robôs suicidas levem uma etiqueta que declare um humano responsável por sua utilização, como forma de evitar a "barra livre" de mortes que parece favorecer o uso desses sistemas.
Do Just Security também se recomenda que as operações com drones sejam supervisionadas e aprovadas por duas pessoas — no estilo dos protocolos de uso de armas nucleares — assim como aumentar os sistemas de auditorias e verificação. Transparência e prestação de contas parecem ser as únicas fórmulas para reduzir os riscos do uso da inteligência artificial militar.
“O desafio que enfrentamos hoje é que os avanços tecnológicos da IA estão empurrando os humanos para as margens da tomada de decisões, o que levanta questões sobre seu lugar dentro da guerra. Essas questões existenciais merecem muito mais pesquisa e debate, mas o ritmo com que a tecnologia se desenvolve e a aparente obsessão com a ‘necessidade de velocidade’ impedem ou desfavorecem um diálogo tão crucial”, conclui Dorsey. Como lembra Pere Brunet, a desumanização que leva ao uso de máquinas para a aniquilação é provocada por seres humanos, não por inteligências artificiais ou algoritmos, e é tarefa da humanidade cooperar diante das ameaças que hoje pairam sobre todos os povos. “Nem o clima, nem as pandemias, nem as inundações entendem de fronteiras. Portanto, talvez seja necessário mudar de paradigma e destinar a isso o dinheiro que se destina ao setor militar”, conclui esse pesquisador.
Leia mais