09 Abril 2024
Fontes israelenses revelam o uso do sistema 'Lavender', baseado em Inteligência Artificial, que chegou a identificar 37.000 supostos membros de grupos armados palestinos na Faixa, que estão sendo atacados com 'bombas burras' de baixa precisão: Israel já matou mais de 33.000 pessoas em Gaza, metade delas crianças e mulheres.
A reportagem é de Bethan McKernan e Harry Davies, publicada por El Salto em colaboração com o The Guardian, 04-04-2024.
Durante os seis meses de ofensiva contra Gaza, o Exército de Israel tem utilizado uma base de dados até então desconhecida, que emprega Inteligência Artificial (IA) e que sugeriu o nome de 37.000 pessoas como possíveis alvos devido a seus supostos vínculos com o grupo palestino Hamas, de acordo com fontes de inteligência israelense ligadas à atual guerra em Gaza.
Essas fontes de inteligência, além de falarem sobre o sistema 'Lavender', afirmam que oficiais do Exército israelense permitiram a morte de um número significativo de civis palestinos, especialmente nos primeiros meses do conflito.
O jornalista Yuval Abraham coletou o testemunho de seis oficiais de inteligência, todos envolvidos no uso de sistemas de IA para identificar alvos do Hamas e da Jihad Islâmica Palestina (JIP) em Gaza, para uma reportagem em inglês na revista independente +972 Magazine e em hebraico no Local Call. Os testemunhos foram compartilhados com o jornal The Guardian exclusivamente antes de sua publicação.
Os testemunhos são incomuns por sua franqueza e oferecem uma visão incomum das experiências vividas em primeira mão pelos funcionários de inteligência que estão usando o sistema de aprendizado de máquina para identificar alvos nesses seis meses de guerra.
Israel, ao usar poderosos sistemas de Inteligência Artificial em seu confronto com o Hamas, entrou em um território desconhecido para a guerra moderna, gerando novas questões jurídicas e morais e transformando ao mesmo tempo a relação entre máquinas e pessoal militar.
"Isso não tem precedentes em minha memória", afirma um agente de inteligência que usou o Lavender. Em sua opinião, um "mecanismo estatístico" é mais confiável do que soldados em confronto. "Em 7 de outubro, todo mundo perdeu entes queridos, eu também; a máquina fazia isso friamente e isso tornava mais fácil", explica.
Outro agente que usou o Lavender questiona se os seres humanos eram melhores no processo de seleção de alvos: "Eu dedicava vinte segundos a cada alvo e fazia dezenas de avaliações por dia; como ser humano, não agregava nenhum valor além da aprovação; [Lavender] economizou muito tempo".
Os agentes confirmam o papel central que o Lavender desempenhou durante a guerra, analisando grandes quantidades de dados para identificar rapidamente possíveis combatentes juniores do Hamas para atacar. No início da guerra, e de acordo com quatro das pessoas entrevistadas, o sistema de IA vinculou até 37.000 homens de Gaza ao Hamas ou à JIP.
O Lavender foi desenvolvido pela Unidade 8200, uma unidade de elite de espionagem das Forças de Defesa de Israel (IDF), comparável à Agência de Segurança Nacional dos Estados Unidos.
Segundo várias fontes, para autorizar o ataque contra várias categorias de alvos, as IDF autorizavam antecipadamente um número estimado de mortes civis considerado admissível e proporcional. Duas das pessoas que testemunharam afirmam que, nas primeiras semanas da guerra, estavam autorizadas a matar 15 ou 20 civis durante ataques aéreos contra militantes de baixo escalão. Geralmente, os ataques contra esse tipo de alvo eram realizados com munições não guiadas, chamadas bombas burras, que destruíam casas inteiras e matavam todos que estavam dentro.
"Você não quer gastar bombas caras em pessoas sem importância; é muito caro para o país e há escassez [dessas bombas]", afirma um dos agentes da inteligência israelense. Segundo outro dos agentes entrevistados, a questão-chave era determinar os "danos colaterais" a civis permitidos em um ataque. "Normalmente realizávamos os ataques com bombas burras e isso significava deixar a casa inteira desabar literalmente sobre seus ocupantes", explica. "Mas mesmo se um ataque fosse evitado, não importava. Você passava imediatamente para o próximo alvo: com o sistema [de IA], os alvos nunca terminam. Há outros 36.000 esperando".
Segundo especialistas em conflitos, se Israel usou bombas burras e destruiu as casas de milhares de palestinos em Gaza depois que a IA os vinculou a grupos armados, isso poderia ajudar a explicar o número escandalosamente alto de civis mortos na guerra atual. Segundo o Ministério da Saúde de Gaza, mais de 33.000 palestinos morreram desde outubro. Segundo dados da ONU, 1.340 famílias sofreram múltiplas perdas apenas no primeiro mês de guerra; dessas, 312 perderam mais de dez de seus membros.
Em resposta à publicação da reportagem na +972 Magazine e no Local Call, as IDF divulgaram um comunicado no qual defendiam que haviam respeitado as normas de proporcionalidade do direito internacional e que as bombas burras eram um "armamento padrão" usado pelos pilotos das IDF de modo a terem "um alto nível de precisão". O comunicado destacava que o Lavender era um banco de dados "para cruzar fontes de inteligência, com o objetivo de produzir várias camadas de informações atualizadas relacionadas a membros militares de organizações terroristas".
"Não se trata de uma lista de membros militares confirmados aprovados para serem atacados", acrescentava. "As IDF não usam um sistema de IA que identifique terroristas ou tente prever se uma pessoa é terrorista (...) Os sistemas de informação são apenas ferramentas que ajudam os analistas em seu processo de identificação de alvos".
Em operações militares anteriores das IDF, identificar pessoas como alvos costumava ser um processo mais trabalhoso. De acordo com o testemunho de várias pessoas que descreveram ao The Guardian o processo em outras ofensivas, antes de "incriminar" um indivíduo ou identificá-lo como um alvo legítimo, havia um debate e era necessária a posterior assinatura de um consultor jurídico.
Segundo essas pessoas, o processo para aprovar ataques contra seres humanos acelerou drasticamente nas semanas e meses após os ataques do Hamas em 7 de outubro. À medida que as IDF intensificavam os bombardeios sobre Gaza, os comandantes exigiam que novos alvos não deixassem de surgir. "Eles nos pressionavam o tempo todo: 'tragam mais alvos', gritavam para nós", diz um agente. De acordo com seu testemunho, os comandantes insistiam que era hora de "enfrentar o Hamas, custe o que custar". " 'Atinja tudo o que puder, bombardeie', eles nos diziam".
Para atender a essa demanda, as IDF dependiam muito do Lavender para gerar uma base de dados com o nome de pessoas que poderiam ser classificadas como milicianos do Hamas ou da Jihad Islâmica Palestina (YIP).
Na informação publicada pela +972 Magazine e pelo Local Call, não há detalhes sobre o tipo específico de dados usados para treinar o algoritmo do Lavender ou sobre como o programa chegava a suas conclusões. No entanto, de acordo com as fontes, a Unidade 8200 refinou o algoritmo do Lavender e ajustou seus parâmetros nas primeiras semanas da guerra em Gaza. A Unidade comparou suas previsões com uma amostra aleatória e concluiu que o Lavender havia alcançado uma precisão de 90%, um percentual que as IDF consideraram suficiente para aprovar o uso generalizado dessa tecnologia como uma ferramenta de recomendação de alvos, segundo as fontes.
O Lavender criou uma base de dados com o nome de dezenas de milhares de pessoas marcadas como membros de baixo escalão da ala militar do Hamas, afirmam as fontes. Essa base de dados foi usada junto com o Evangelho, outro sistema baseado em IA para apoiar a tomada de decisões na seleção de edifícios e estruturas como alvos.
Os testemunhos em primeira mão das fontes descrevem o trabalho dos agentes de inteligência com o Lavender e como era possível ajustar o tamanho da rede de arrastamento. "Em seu auge, o sistema chegou a gerar o nome de 37.000 pessoas como possíveis alvos humanos", afirma uma das fontes. "Mas os números mudavam o tempo todo porque dependiam dos critérios para decidir quem era um membro do Hamas".
"Em alguns momentos, a definição do que era um membro do Hamas foi ampliada e, então, a máquina começou a sugerir todos os tipos de funcionários de serviços de emergência, policiais, contra os quais seria uma vergonha desperdiçar bombas", diz uma das fontes. "Eles ajudam o governo do Hamas, mas a verdade é que não colocam os soldados de Israel em perigo".
Antes da guerra, Israel e os Estados Unidos calculavam que a ala militar do Hamas era composta por entre 25.000 e 30.000 membros.
As fontes relatam que, nas semanas após o ataque do Hamas a Israel em 7 de outubro – no qual os militantes islamistas mataram cerca de 1.200 israelenses e sequestraram cerca de 240 –, foi tomada a decisão de considerar como alvos todos os homens palestinos ligados à ala militar do Hamas, independentemente de seu cargo ou importância.
Na fase mais intensa dos bombardeios, também foram relaxadas as normas do processo de seleção de alvos das IDF. "Havia uma política completamente tolerante em relação às baixas causadas pelas operações militares". "Uma política tão tolerante que, em minha opinião, tinha algo de vingança", admite uma fonte.
Outra fonte justifica o uso do Lavender para ajudar a identificar alvos de baixo escalão. Em sua opinião, "quando se trata de um militante júnior, não é algo em que você quer investir tempo ou pessoal". Durante a guerra, não há tempo para fazer uma "incriminação meticulosa de cada alvo", acrescenta. "Você está disposto a assumir a margem de erro da inteligência artificial, a arriscar danos colaterais e mortes de civis; e arriscar ataques por engano, e viver com isso".
Os testemunhos oferecem uma explicação para o alto custo humano de uma guerra executada por um exército ocidental com capacidades tão desenvolvidas e armas preparadas para lançar ataques altamente precisos.
Segundo as fontes, quando se tratava de suspeitos de baixo escalão do Hamas e da YIP, a preferência era atacar quando se estimava que estavam em casa. "Não íamos matar os operativos apenas quando estavam em um prédio militar ou participando de uma atividade militar", afirma uma das pessoas entrevistadas. "É muito mais fácil bombardear uma casa familiar. O sistema é projetado para encontrá-los nessas situações".
As IDF estabeleceram números de civis cuja morte consideravam aceitável durante um ataque direcionado a um único militante do Hamas, de acordo com as fontes. A proporção variava de acordo com o cargo do alvo e teria mudado ao longo do tempo. +972 Magazine e Local Call revelam que, em ataques contra um alto funcionário do Hamas, as IDF consideraram aceitável matar mais de 100 civis.
"Tínhamos um cálculo de quantos [civis poderiam ser mortos] por um comandante de brigada, quantos por um comandante de batalhão, e assim por diante", detalha uma fonte. Outra diz que "havia regras, mas eram muito tolerantes": "Matamos pessoas com danos colaterais de dois dígitos, se não três; são coisas que não haviam acontecido antes" em outras ofensivas.
A proporção que os comandantes militares consideravam aceitável variou nas diferentes fases da guerra. Segundo uma fonte, o limite de vítimas civis permitidas "aumentava e diminuía", e em um momento chegou a ser cinco. Durante a primeira semana do conflito, estava autorizado matar 15 não combatentes em Gaza para eliminar um militante júnior. Mas as estimativas de vítimas civis eram imprecisas, acrescenta a fonte, devido à impossibilidade de saber com certeza quantas pessoas estavam em um prédio.
Outro agente de inteligência disse que a taxa de danos colaterais permitidos foi recentemente reduzida, mas em um momento eles receberam autorização para matar até "20 civis não envolvidos" em troca de eliminar um único operativo, independentemente de sua idade, posição ou importância militar. "Não é apenas que você possa matar qualquer pessoa que seja combatente do Hamas, algo claramente permitido e legítimo em termos de direito internacional (...) Mas eles dizem diretamente: 'Você tem permissão para matá-los junto com muitos civis'. O princípio da proporcionalidade, na prática, não existia".
Em seu comunicado, as FDI afirmaram que seus procedimentos requeriam "uma avaliação individual do benefício militar previsto e dos danos colaterais esperados". "As FDI não realizam ataques quando os danos colaterais esperados são excessivos em relação aos ganhos militares", afirmava o texto. "As FDI rejeitam categoricamente alegações relativas a uma política de matar dezenas de milhares de pessoas em suas casas".
Especialistas em direito internacional humanitário consultados pelo The Guardian mostraram preocupação com a possibilidade de as FDI terem aceitado e permitido antecipadamente a morte de até 20 civis por um operativo do Hamas, especialmente no caso de milicianos de baixo escalão. Segundo os especialistas, o Exército é obrigado a avaliar a proporcionalidade de cada ataque individualmente.
"Nunca ouvi que uma proporção de 1 para 15 fosse considerada aceitável, nem remotamente, especialmente no caso de um miliciano de baixo escalão; há uma grande margem, mas isso me parece extremo", disse um especialista em direito internacional do Departamento de Estado dos EUA.
"Embora possa haver ocasiões em que 15 mortes civis colaterais possam ser consideradas proporcionais, há outras em que definitivamente não o seriam. Não se pode pré-definir um número tolerável para uma categoria de objetivos e dizer que será legalmente proporcionado em todos os casos", declarou Sarah Harrison, ex-advogada do Departamento de Defesa dos Estados Unidos e analista do centro de estudos Grupo de Crise.
Além de possíveis justificativas legais ou morais para os bombardeios israelenses, alguns de seus agentes de inteligência parecem estar questionando a estratégia dos comandantes. "Ninguém pensou no que fazer depois, quando a guerra acabar, nem em como será possível viver em Gaza", disse um deles. Segundo outro, após os ataques do Hamas em 7 de outubro, o clima dentro das FDI era de "dor e vingança". "Havia uma dissonância: por um lado, as pessoas aqui estavam contrariadas porque não estávamos atingindo o suficiente; mas, no final do dia, você via que outros milhares de gazenses haviam morrido, civis na maioria das vezes".
FECHAR
Comunique à redação erros de português, de informação ou técnicos encontrados nesta página:
Israel usa IA no massacre em Gaza e no combate com o Hamas: “Matamos pessoas com um dano colateral de dois ou três dígitos” - Instituto Humanitas Unisinos - IHU