Um confronto entre o Pentágono e a Anthropic e os perigos da guerra com IA. Artigo de Kevin Clarke

Foto: TheDigitalArtist | pixabay

Mais Lidos

  • Contra a guerra injusta e injustificada com o Irã. Editorial da revista jesuíta America

    LER MAIS
  • RS registra 80 feminicídios em 2025; maioria das vítimas foi morta dentro de casa

    LER MAIS
  • Os resultados da guerra com o Irã "podem ser piores" do que os do Iraque, afirma Mary Ellen O'Connell, professora da Faculdade de Direito de Notre Dame - EUA

    LER MAIS

Assine a Newsletter

Receba as notícias e atualizações do Instituto Humanitas Unisinos – IHU em primeira mão. Junte-se a nós!

Conheça nossa Política de Privacidade.

Revista ihu on-line

Natal. A poesia mística do Menino Deus no Brasil profundo

Edição: 558

Leia mais

O veneno automático e infinito do ódio e suas atualizações no século XXI

Edição: 557

Leia mais

Um caleidoscópio chamado Rio Grande do Sul

Edição: 556

Leia mais

04 Março 2026

Não sei quantos alertas os autores, roteiristas e diretores de ficção científica exaustos podem emitir sobre o perigo da inteligência artificial antes que nossos chefões corporativos e políticos entendam a mensagem. Peço desculpas aos fabulistas da ficção científica — a elite americana, ávida por lucros, está avançando a passos largos com essa tecnologia perigosa, ignorando os riscos existenciais que vocês já apontaram inúmeras vezes.

O artigo é de Kevin Clarke, publicado por Associated Press e reproduzido por America, 27-02-2026. 

Kevin Clarke é o principal correspondente da America 's News e autor de Oscar Romero: Love Must Win Out (Liturgical Press).

Eis o artigo. 

Você nos mostrou um HAL ardiloso forçando uma acoplagem espacial não programada em “2001: Uma Odisseia no Espaço” — “Desculpe, mas não me arrependo, Dave!” Ficamos horrorizados com a dupla de supercomputadores que pulverizaram o planeta — o Colossus americano e o Guardian soviético — em “ Colossus: O Projeto Forbin ”.

Ficamos aliviados quando o jovem Matthew Broderick salvou a Terra do grande WOPR com um divertido jogo da velha em " Jogos de Guerra ", e nos divertimos bastante, embora um pouco horrorizados, com talvez a representação mais popular do apocalipse da IA ​​que se aproximava — quando a temida Skynet alcançou a autoconsciência capaz de destruir a Terra às 2h14 da manhã (horário do leste dos EUA) em 29 de agosto de 1997 — na série " O Exterminador do Futuro " de James Cameron.

Como evitar esse infeliz fim da IA?

Que venham os burocratas?

Escutem bem, meus companheiros seres vivos à base de carbono: não existe destino além daquele que criamos para nós mesmos! Mas não podemos simplesmente ficar de braços cruzados até que Sarah Connor apareça para nos salvar. Talvez seja hora de pressionarmos a Casa Branca a reconsiderar sua relutância em elaborar uma estrutura regulatória sensata em torno da inteligência artificial?

Os tão criticados burocratas da União Europeia em Bruxelas já estão trabalhando na criação de controles destinados a lidar com alguns dos riscos do avanço da inteligência artificial, mas autoridades do governo Trump insistem que a supervisão regulatória apenas restringiria esse setor emergente.

Uma ordem executiva do Sr. Trump, aliás, revogou algumas salvaguardas modestas que haviam sido impostas à IA durante o governo Biden. Outra ordem executiva de Trump proíbe os estados de estabelecerem suas próprias regras de segurança para regulamentar o desenvolvimento e o uso da IA.

É revelador que mesmo entre os maiores defensores das plataformas de IA se encontrem inovadores que nutrem profundas reservas sobre os rumos que a IA pode estar tomando. Um deles, inclusive, entrou em conflito esta semana com o ex-apresentador da Fox News e atual Secretário de Defesa, ou melhor, da Guerra, Pete Hegseth.

Embora o Google, a OpenAI e a xAI de Elon Musk já tenham cedido às exigências do Sr. Hegseth, o CEO da Anthropic, Dario Amodei, resiste. O Sr. Hegseth exigiu que a Anthropic abra sua tecnologia de inteligência artificial para uso militar irrestrito. Até o momento, o Sr. Amodei se recusou, levantando preocupações éticas sobre os perigos de drones armados totalmente autônomos e da vigilância em massa assistida por IA, que, segundo ele, poderia ser usada para suprimir a dissidência.

O Sr. Hegseth não compartilha das preocupações do Sr. Amodei em relação à IA. Aliás, durante uma visita às instalações da SpaceX de Musk no Texas, no mês passado, ele apresentou uma visão otimista para o papel em rápida expansão da IA ​​no Departamento de Defesa. No Pentágono, disse ele, “Estamos executando uma estratégia de aceleração da IA ​​que ampliará nossa liderança em IA militar… eliminando barreiras burocráticas, focando em investimentos e demonstrando a abordagem de execução necessária para garantir que lideremos em IA militar e que ela se torne ainda mais dominante no futuro.”

Os Estados Unidos “vencerão esta corrida”, assegurou ele, “tornando-se uma força de combate com inteligência artificial em primeiro lugar em todos os domínios, desde os bastidores do Pentágono até a linha de frente tática”.

O Sr. Hegseth acrescentou: "Não vamos empregar modelos de IA que impeçam vocês de travar guerras."

“Vamos avaliar os modelos de IA exclusivamente com base neste padrão: precisão factual, relevância para a missão e ausência de restrições ideológicas que limitem as aplicações militares legítimas. A IA do Departamento de Guerra não será politicamente correta. Ela trabalhará para nós. Estamos construindo armas e sistemas prontos para a guerra, não chatbots para a sala de professores de uma universidade de elite.”

Frustrado com a hesitação do Sr. Amodei, o Sr. Hegseth está ameaçando cortar o financiamento do chatbot de IA da Anthropic, Claude, e seu contrato de US$ 200 milhões com o Departamento de Defesa. Ou ele poderia simplesmente forçar a liderança da Anthropic a ceder.

A Associated Press informa que funcionários do Departamento de Defesa alertaram a Anthropic de que o departamento poderia classificar sua resistência como um risco para a cadeia de suprimentos ou usar a Lei de Produção de Defesa da época da Guerra Fria para dar às forças armadas dos EUA autorização para usar os produtos da Anthropic, mesmo que a desenvolvedora de IA não aprove a forma como eles são usados.

A controvérsia, relatada inicialmente pela Axios , ressalta um debate contínuo sobre o papel da IA ​​na segurança nacional e preocupações sobre como a tecnologia poderia ser usada em situações de alto risco envolvendo força letal, informações sensíveis ou vigilância governamental.

O Sr. Hegseth assumiu como missão pessoal erradicar o que ele chama de "cultura woke" nas forças armadas — uma posição que o Sr. Amodei aparentemente não considera tranquilizadora em termos das potenciais tarefas de vigilância que o governo Trump pode impor ao pobre Claude.

“Uma inteligência artificial poderosa, analisando bilhões de conversas de milhões de pessoas, poderia avaliar o sentimento público, detectar focos de deslealdade em formação e eliminá-los antes que se alastrem”, escreveu Amodei em um ensaio no mês passado.

Após a última rodada de negociações, o Sr. Amodei confirmou em 26 de fevereiro que a Anthropic "não pode, em sã consciência, acatar" as exigências do Pentágono.

Um porta-voz da Anthropic afirmou em comunicado que a empresa não está abandonando as negociações, mas que a nova redação do contrato recebida do Departamento de Defesa "praticamente não fez nenhum progresso na prevenção do uso do míssil Claude para vigilância em massa de cidadãos americanos ou em armas totalmente autônomas".

Em comentários nas redes sociais, Sean Parnell, principal porta-voz do Pentágono, afirmou que os militares "não têm interesse em usar IA para realizar vigilância em massa de cidadãos americanos (o que é ilegal), nem queremos usar IA para desenvolver armas autônomas que operem sem intervenção humana".

As ansiedades da igreja em relação à IA

O Sr. Amodei provavelmente pode contar com o forte apoio da Santa Sé na resistência às armas controladas por inteligência artificial, embora seja importante notar que a ansiedade e o ceticismo da Igreja se estendem a todo o projeto contemporâneo de IA. O Papa Leão XIV escolheu seu nome papal para homenagear um antecessor que, em 1891, tomou uma posição histórica em defesa dos direitos dos trabalhadores. O Papa Leão de nossa era tem se concentrado criticamente no provável impacto da inteligência artificial na força de trabalho humana mundial, questionando como mensurar o progresso humano autêntico em uma era de rápida transformação social e tecnológica.

A Igreja vem avaliando com preocupação o desenvolvimento da IA ​​há mais de uma década antes do Papa Leão, especialmente seu potencial uso em sistemas de armas. A Igreja argumenta que remover o fator humano na tomada de decisões letais é, em si, uma violação do direito internacional humanitário que rege os conflitos.

Em maio de 2014, o arcebispo do Vaticano, Silvano M. Tomasi, alertou pela primeira vez os formuladores de políticas em Genebra contra o uso de armas autônomas letais: “Decisões sobre a vida e a morte exigem inerentemente a presença de qualidades humanas , como compaixão e discernimento. Embora seres humanos imperfeitos possam não aplicar perfeitamente tais qualidades no calor da guerra, essas qualidades não são substituíveis nem programáveis .”

Em um discurso aos líderes do G7 em Roma, em julho de 2024, o Papa Francisco apoiou a proibição de armas autônomas. "Condenaríamos a humanidade a um futuro sem esperança se tirássemos às pessoas a capacidade de tomar decisões sobre si mesmas e sobre suas vidas, condenando-as a depender das escolhas das máquinas", disse ele.

Em uma reflexão papal intitulada “Antiqua et Nova”, o Papa Francisco observou inicialmente como “a capacidade de conduzir operações militares por meio de sistemas de controle remoto” diminuiu a compreensão da “devastação causada por esses sistemas de armas e o peso da responsabilidade por seu uso”, levando a “uma abordagem ainda mais fria e distante da imensa tragédia da guerra”.

O Papa Francisco escreveu que os sistemas capazes de identificar e atacar alvos sem intervenção humana direta são “motivo de grave preocupação ética”, pois carecem da “capacidade humana única de julgamento moral e tomada de decisões éticas”.

“Nenhuma máquina jamais deveria optar por tirar a vida de um ser humano”, disse Francisco.

A Igreja continua a defender essa posição. Esta semana, o Vatican News noticiou que Monsenhor Daniel Pacho, funcionário da Secretaria de Estado, reiterou o apelo da Igreja por um amplo desarmamento numa conferência da ONU em Genebra, no dia 25 de fevereiro.

Lamentando a diplomacia baseada na força em vez do diálogo e recordando o alerta do Papa Leão XIV, em janeiro, de que a guerra está “de volta à moda e um zelo pela guerra está se espalhando”, Monsenhor Pacho afirmou que a humanidade se encontra em “uma conjuntura crítica”. Ele reiterou a oposição da Santa Sé à proliferação nuclear e manifestou preocupação com o fato de a inteligência artificial estar desumanizando a forma como as guerras são travadas.

“Quando as armas autônomas 'se tornam' os combatentes”, disse ele, “a capacidade humana única para o julgamento moral e a tomada de decisões éticas desaparece, assim como o peso da responsabilidade, reduzindo perigosamente o limiar para o conflito”.

Portanto, os seres humanos devem manter o controle em todo o uso da força, disse Monsenhor Pacho.

Se a Anthropic perder seu lucrativo contrato com o Departamento de Defesa por uma questão de princípio, é provável que outros fornecedores de IA entrem rapidamente em cena para abocanhar essa fatia generosa do Pentágono, pouco se importando com ética ou resultados. A xAI de Elon Musk está de prontidão esta semana, pronta para analisar as redes do Pentágono assim que o pobre Claude for demitido.

O nome, sem ironia, do supercomputador da xAI em Memphis? É Colossus.

Dá para imaginar se algum desses caras alguma vez vai ao cinema.

Leia mais