06 Março 2026
A tecnologia que a maioria das pessoas usa apenas como ferramenta de comunicação para tarefas diárias está, segundo relatos, auxiliando a agressão militar dos EUA. E não há muito que possamos fazer a respeito.
O artigo é de Chris Stokel-Walker, publicado por The Guardian, 03-03-2026.
Chris Stokel-Walker é o autor de TikTok Boom: The Inside Story of the World's Favourite App (A explosão do TikTok: a história interna do aplicativo favorito do mundo).
Eis o artigo.
Há muitas coisas que a IA pode fazer. Ela pode organizar sua lista de compras e entreter seus filhos quando eles estiverem fazendo birra, criando uma história para dormir personalizada para eles. Pode torná-lo mais eficiente no trabalho e ajudar nosso governo a funcionar com mais eficácia.
O que se escreve menos, e sobre o que precisamos gritar mais alto agora, são os riscos inerentes à militarização da IA. Nos últimos três meses, a Casa Branca de Donald Trump teria usado IA duas vezes para efetuar mudanças de regime ou – no caso mais recente, no Irã – para chegar o mais perto possível disso, deixando para os iranianos comuns a tarefa de concluir o trabalho.
Primeiro, o modelo de IA Claude da Anthropic – que a maioria das pessoas usa como uma alternativa um pouco mais criteriosa ao ChatGPT – foi supostamente usado tanto para planejar quanto para executar o sequestro de Nicolás Maduro de seu complexo na Venezuela, mas não está claro como o modelo foi usado em detalhes. Depois, neste fim de semana, descobrimos que a ferramenta de IA foi usada novamente para analisar informações que ajudaram a auxiliar a devastadora saraivada de mísseis que atingiu o Irã, aparentemente para identificar alvos e executar simulações.
É difícil exagerar a importância de ambos os momentos. A inteligência artificial tem sido usada no planejamento e na execução de operações militares que resultaram em um número desconhecido de vítimas e causaram grande instabilidade no Oriente Médio.
Se isso lhe causa desconforto, você não está sozinho. O CEO da Anthropic, Dario Amodei, se envolveu em uma disputa pública bastante desagradável com o presidente dos EUA depois de se recusar a flexibilizar duas "linhas vermelhas" para o Claude: que ele não seja usado para vigilância doméstica em massa, nem para construir armas totalmente autônomas que selecionem e ataquem alvos sem controle humano significativo. A OpenAI rapidamente interveio e assinou um acordo com o Pentágono, embora afirme que os termos do acordo lhe conferem, na verdade, proteções mais robustas do que as que a Anthropic desejava.
Independentemente das subcláusulas específicas do contrato, vale a pena repetir: uma ferramenta que começou sua vida pública como uma interface de bate-papo para resumir e-mails e ajudar a escrever uma carta de apresentação agora está em algum ponto da cadeia que transforma informação em violência.
Antigamente, questões como "Quem deveria controlar a IA e o que aconteceria se ela fosse usada militarmente?" eram debatidas de forma abstrata entre acadêmicos em painéis. Havia preocupações, mas pareciam distantes porque ainda não haviam se concretizado. Quando Maduro foi detido por forças especiais em janeiro e as bombas começaram a cair sobre o Irã, aparentemente todas com o auxílio de IA, esse cenário mudou.
Os princípios básicos dos conflitos armados sempre foram os de possuir armas grandes e assustadoras, mas nunca usá-las. Elas servem para dissuasão. A teoria da destruição mútua assegurada fez com que as pessoas evitassem acionar bombas nucleares. (Preocupantemente, os primeiros indícios de simulações de guerra mostram que os sistemas de inteligência artificial que tomam decisões são propensos a usar armas nucleares.)
Agora essa desculpa não existe mais. Mais países usarão IA em seu planejamento e ações militares – com razão, pois sua eficácia já foi comprovada, embora existam questões morais óbvias sobre o uso da IA para tomar decisões militares. Quando historiadores militares analisarem os acontecimentos dos últimos meses, será fácil perceber que o uso da IA dessa forma será semelhante ao lançamento de armas nucleares sobre o Japão: um momento em que havia um antes claro e um depois incerto.
Então, o que podemos fazer a respeito? Muito pouco. Deveríamos ter tido uma proibição total do uso de IA militar. Estamos nos afastando disso há mais de uma década, desde que Demis Hassabis assumiu uma posição de princípio e disse que só venderia sua empresa, DeepMind, para o Google se este concordasse em não permitir o uso militar da tecnologia. No ano passado, a empresa, agora chamada Alphabet, discretamente abandonou sua promessa de não usar IA para armas. E as ações de Trump destruíram completamente essa ideia.
Mas agora a comunidade internacional precisa trabalhar arduamente para trazer Trump de volta da beira do abismo. Os aliados devem pressionar a Casa Branca de Trump não apenas para que seja responsável no uso militar da IA, mas também para que aceite restrições vinculativas. Isso deve incluir compromissos internacionais, padrões de aquisição transparentes e supervisão significativa, aos quais outros também devem aderir, em vez de tratar a ética como um freio à ação. Porque se as forças armadas mais poderosas do mundo normalizarem modelos de IA de nível de consumo como parte de operações de mudança de regime, estaremos do outro lado do espelho em relação à IA: estaremos em um mundo totalmente novo e muito mais perigoso.
Leia mais
- Um confronto entre o Pentágono e a Anthropic e os perigos da guerra com IA. Artigo de Kevin Clarke
- Anthropic versus Trump
- Pentágono pressiona startup a ceder IA para fins militares
- “A inteligência artificial permite uma vigilância total que acaba com qualquer liberdade”. Entrevista com Yuval Noah Harari
- Machine Intelligence: a inteligência artificial e a espionagem. Artigo de Paolo Benanti
- Yuval Noah Harari: “Existe um potencial totalitário na inteligência artificial nunca antes visto”
- “Começamos a ver como as decisões dos algoritmos moldam a política, a cultura e a sociedade”. Entrevista com Yuval Noah Harari
- Yuval Noah Harari: nova era do imperialismo
- “A inteligência artificial está nos levando a uma nova fase do conhecimento”. Entrevista com Paolo Benanti
- “A tecnologia deve ser para a pessoa ou se corre o risco de um totalitarismo digital”
- Paolo Benanti: “A inteligência artificial não é apenas uma tecnologia, mas uma nova fronteira”
- A democracia à prova do poder dos computadores. Artigo de Paolo Benanti
- Democracia computacional. O que muda na era da IA. Artigo de Paolo Benanti
- IA e a geração de desigualdades multidimensionais: da civilização dos ricos à civilização dos pobres