21 Fevereiro 2024
"As evidências de Gaza até o momento da redação deste texto eram de que as vítimas civis ultrapassavam 25.000 (sendo provavelmente significativamente mais altas), incluindo mais de 10.000 crianças e a destruição de cerca de 70% dos edifícios e infraestruturas críticas de Gaza. O 'evangelho' da precisão e exatidão possibilitadas pela IA tem-se revelado agora um pretexto para a aceleração de atos de matança criminosos desenfreados".
O comentário é de Lucy Suchman, professora emérita da Lancaster University, no Reino Unido, em artigo publicado por Robot Futures e reproduzido por Outras Palavras, 16-02-2024. A tradução é de Eleonora Albano.
Em 11 de janeiro de 2024, o Tribunal Internacional de Justiça (TIJ) abriu um processo sobre as acusações de genocídio apresentadas pela África do Sul contra as operações de Israel em Gaza. Israel, por sua vez, encara as suas operações militares em Gaza como legítima defesa, i.e., como resposta justificável ao massacre de civis israelenses pelo Hamas em 7 de outubro de 2023. Na cobertura midiática sobre as operações israelenses em Gaza, um relatório de investigação destacou-se para os que vimos acompanhando os desenvolvimentos da intensificação algorítmica de máquinas militares mortíferas, operado pelo sistema de mira de Israel habilitado por IA – denominado Habsora, ou “O Evangelho”.
Intitulado “Uma fábrica de assassinatos em massa: a face interna do bombardeio calculado de Gaza por Israel”, o relatório baseia-se em fontes da comunidade de inteligência israelense que confirmam que as operações das Forças de Defesa Israelenses (FDI) na Faixa de Gaza combinam uma autorização mais permissiva para o bombardeio de alvos não militares com um afrouxamento das restrições relativas às baixas civis esperadas. Essa política sanciona o bombardeio de áreas civis densamente povoadas, incluindo arranha-céus residenciais e edifícios públicos designados, por assim dizer, como “alvos de poder”. As diretrizes legais oficiais exigem que os edifícios selecionados alberguem um alvo militar legítimo e estejam vazios no momento da sua destruição. A nova política resultou na emissão, pelas FDI, de uma sucessão constante e mutável de ordens de evacuação inviáveis para aqueles que estão presos em áreas cada vez mais restritas de Gaza. Estas práticas de seleção de alvos são presumivelmente facilitadas pela extensão e intensidade da infraestrutura de vigilância nos Territórios Palestinos Ocupados [i]. Além disso, quando Israel declara a superfície inteira de Gaza como “cobertura” para os túneis do Hamas – esses considerados alvos militares legítimos –, toda a faixa torna-se um objeto de destruição fácil.
Um corolário direto desta estratégia operacional é a necessidade de um fluxo ininterrupto de alvos candidatos.
Para atender a este requisito, o Habsora foi concebido para acelerar a geração de alvos a partir de dados de vigilância, criando o que um antigo oficial de inteligência descreve como uma “fábrica de assassinatos em massa”.
Evidentemente, o bombardeio israelense de Gaza mudou o foco do argumento pela seleção de alvos por IA da precisão e exatidão crescentes para a aceleração da taxa de destruição. O porta-voz das FDI, Almirante Daniel Hagari, reconheceu que, no bombardeio de Gaza, “a ênfase está nos danos e não na precisão”. Para aqueles que têm defendido a precisão e a exatidão como a base moral precípua do alvejamento baseado em dados, esta admissão deve ser certamente perturbadora. Muda a narrativa de uma tecnologia auxiliar da adesão ao Direito Internacional Humanitário (DIH) e às Convenções de Genebra, para a automação em nome da produtividade na geração de alvos, em escala industrial, permitindo maior velocidade e eficiência na matança. Além disso, como reconhecem as fontes de inteligência de Israel, as operações não são indiscriminadas; são deliberadamente concebidas para criar “choque” em meio à população civil, sob a premissa de que isso pode de alguma forma contribuir para o objetivo de Israel de eliminar o Hamas.
O recurso de Israel à intensificação algorítmica para acelerar a produção de alvos deve ser entendido dentro do contexto tecnopolítico mais amplo da chamada guerra centrada em redes. Projeto que remonta à década de 1990, com raízes no imaginário cibernético da Guerra Fria, o combate baseado em dados promete uma solução tecnológica para o antigo problema da “consciência situacional” como pré-requisito para a perpetuação da lógica militar. Conforme observado por matéria da National Defense Magazine sobre as diversas propostas para a guerra em rede, “o que todos esses conceitos têm em comum é a visão de um campo de batalha efetivamente em rede, no qual os dados se movem à velocidade da luz para interligar exaustivamente tanto sensores a atiradores quanto as forças e plataformas implantadas.” Os dados são assim naturalizados, i.e., tratados como sinais autoevidentes emitidos por um mundo objetivo existente “lá fora” – e não como o produto de uma cadeia de tradução, detalhadamente projetada, de sinais legíveis por máquina para sistemas ad hoc de classificação e interpretação. E, contrariamente à ideia clássica de que é o valor demonstrado dos dados que leva à vigilância e preside à sua coleta, as operações baseadas em dados são simplesmente exigidas pelo constante investimento nas infraestruturas de cálculo. Em outras palavras, o investimento baseado numa fé cega na vigilância e na coleta de dados alimenta o desejo de confiar nos dados para tomar decisões, por mais questionáveis que sejam a sua proveniência e as cadeias de inferência envolvidas.
Tudo isto ocorre num contexto do compromisso econômico de Israel em se estabelecer como um fornecedor líder de tecnociência militar de alta tecnologia, sobretudo nos chamados combates baseados na IA.
Tanto para a Ucrânia como para Israel, as guerras são uma oportunidade para aumentar as suas vendas de armas. Os sistemas testados em batalha são mais fáceis de vender; e empresas de capital de risco dos EUA, como a Innovation Endeavors, de Eric Schmidt, e, ainda, empresas como a Palantir [ii], estão fazendo fila para participar da indústria de armas em expansão.
Não obstante, restam enormes questões relativas à validade dos pressupostos incorporados nesses sistemas acerca de quem de fato constitui uma ameaça iminente e quão legítimas são as funções de seleção de alvos ao abrigo das Convenções de Genebra e das leis internacionais de guerra. Sabemos que estas plataformas requerem conjuntos de dados continuamente atualizados provenientes de imagens de satélites, drones e outros dados de vigilância, que monitoram os movimentos e padrões de comportamento de indivíduos e grupos, incluindo até a localização de aparelhos celulares, redes sociais e comunicações interceptadas. Mas não sabemos como a qualidade dos dados é validada ou que pressupostos subjazem a categorias como “objetos militares” ou “pessoas de interesse”, ou, ainda, à sua designação como alvos legítimos. As evidências de Gaza até o momento da redação deste texto eram de que as vítimas civis ultrapassavam 25.000 (sendo provavelmente significativamente mais altas), incluindo mais de 10.000 crianças e a destruição de cerca de 70% dos edifícios e infraestruturas críticas de Gaza. O “evangelho” da precisão e exatidão possibilitadas pela IA tem-se revelado agora um pretexto para a aceleração de atos de matança criminosos desenfreados. Enquanto os mestres da guerra desfrutam dos seus lucros a curto prazo através da promessa de soluções tecnológicas, vozes críticas, inclusive um número crescente em Israel, concordam que apenas um cessar-fogo imediato e a libertação incondicional de reféns podem reabrir o caminho para uma solução política. Esperemos que o IJC chegue à mesma conclusão.
[i] Note-se que, apesar de não ser uma arma autônoma, o uso do Habsora em Gaza causa preocupações cada vez mais graves. Veja no link.
[ii] Ver Anthony Lowenstein. The Palestine Laboratory: how Israel exports the technology of occupation around the world. Melbourne: Scribe, 2023.
FECHAR
Comunique à redação erros de português, de informação ou técnicos encontrados nesta página:
IA: o experimento Gaza - Instituto Humanitas Unisinos - IHU