Possível uso de inteligência artificial em ataques no Oriente Médio levanta questões, diz especialista

Fonte: Wallpaperflare

Mais Lidos

  • Trump enfrenta uma guerra mais longa do que o esperado no Irã, com problemas no fornecimento de munição e armas

    LER MAIS
  • “É fundamental não olharmos apenas para os casos que chocam pela brutalidade, mas também para as violências cotidianas que atingem mulheres e meninas, que muitas vezes são naturalizadas e invisibilizadas”, adverte a assistente social

    Combate à violência contra as mulheres: “Essa luta ainda é urgente”. Entrevista especial com Cristiani Gentil Ricordi

    LER MAIS
  • Operação Epstein: a guerra de Trump contra o Irã marca o fim do MAGA

    LER MAIS

Assine a Newsletter

Receba as notícias e atualizações do Instituto Humanitas Unisinos – IHU em primeira mão. Junte-se a nós!

Conheça nossa Política de Privacidade.

Revista ihu on-line

Natal. A poesia mística do Menino Deus no Brasil profundo

Edição: 558

Leia mais

O veneno automático e infinito do ódio e suas atualizações no século XXI

Edição: 557

Leia mais

Um caleidoscópio chamado Rio Grande do Sul

Edição: 556

Leia mais

06 Março 2026

O suposto uso de inteligência artificial para selecionar alvos e lançar ataques contra o Irã levanta inúmeras questões, alimentando temores de uma erosão do controle humano sobre a máquina de guerra, de acordo com um especialista em IA.

A informação é publicada por RFI, 05-03-2026. 

Peter Asaro, que conduziu pesquisas sobre IA e robótica, disse à AFP que parecia provável que EUA e Israel tivessem usado inteligência artificial para identificar alvos no território iraniano.

Mas, embora a IA possa "acelerar as coisas", ela também levanta uma série de questões morais e legais, disse o professor da The New School, em Nova York. Com a IA, "você pode preparar rapidamente longas listas de alvos, muito mais rápido do que os humanos", observou Asaro, que preside a ONG Comitê Internacional para o Controle de Armas Robóticas. Ele também preside a campanha Stop Killer Robots desde janeiro, uma coalizão global de mais de 250 organizações que luta há anos para impedir o uso de "robôs assassinos" no campo de batalha.

Segundo ele, surge uma questão ética e jurídica central: "Até que ponto os humanos realmente examinam os alvos identificados, verificando sua legalidade e valor militar antes de autorizar um ataque?"

Perda de controle?

O objetivo da IA ​​"é ser capaz de tomar decisões e agir mais rápido que o inimigo", mas "será que ainda temos o controle?", questiona.

Na ONU, discussões estão em andamento em Genebra há cerca de dez anos para desenvolver regulamentações sobre esses sistemas de armas autônomas letais (SAAL), apelidados de "robôs assassinos", mas os países nunca conseguiram chegar a um consenso para iniciar negociações genuínas. Essas discussões continuam, com a esperança de que um acordo seja alcançado ainda este ano.

Embora atualmente não exista um tratado específico sobre IA e armas autônomas, isso não significa que esses sistemas possam operar em um vácuo jurídico: o direito internacional vigente se aplica, incluindo proteções reforçadas para escolas e hospitais.

Falando à margem das discussões na Organização das Nações Unidas em Genebra, o especialista enfatizou que o cerne do debate diz respeito, em particular, à escolha de alvos e aos receios de perder todo o controle humano real.

Embora o argumento apresentado para o uso de IA em conflitos seja frequentemente o de que "esses sistemas são muito precisos e cometem menos erros do que os humanos", o especialista insistiu que "na verdade, não sabemos como eles funcionam".

Segundo ele, a IA depende de sistemas opacos e classificados, que oferecem pouca informação sobre seu funcionamento e como chegam às suas conclusões. Não há "uma maneira fácil de avaliar o resultado desses sistemas" ou de determinar o que deu errado quando erros são cometidos, disse o professor.

"Quem é o responsável?"

"Se algo der errado, quem é o responsável?", perguntou ele citando o suposto bombardeio de uma escola na cidade iraniana de Minab, que matou 150 pessoas, muitas delas crianças, segundo as autoridades iranianas. Nem os Estados Unidos nem Israel admitiram ter realizado tal ataque. A Agência France-Presse não conseguiu acessar o local para verificar de forma independente o número de mortos ou as circunstâncias que envolveram a tragédia.

A agência determinou que o prédio ficava próximo a dois locais controlados pela Guarda Revolucionária Islâmica. Segundo o pesquisador, se houve um erro, encontrar a causa está longe de ser simples. “Eles não diferenciaram a escola da base militar como deveriam ter feito (...) mas quem são ‘eles’?”, questionou. "Humanos ou uma máquina?"

Se a IA foi usada, a questão fundamental, segundo ele, é “qual a época dos dados” utilizados e se foi um “erro de banco de dados”. O alvo também pode ter sido identificado corretamente, mas pode simplesmente ter faltado precisão no disparo, acrescentou.

Uma hipótese mais preocupante, observou o especialista, seria que “o sistema concluiu que a escola representava uma ameaça”.

Leia mais