01 Agosto 2024
"A devastadora cifra de vítimas civis na Faixa de Gaza é, dependendo do prisma pelo qual se olha, uma constatação dramática de como as tecnologias moldam nossas sociedades, mentalidades e comportamentos, evidenciando a imperiosa necessidade de regulamentar o desenvolvimento de novas tecnologias baseadas na IA", escreve Javier Bornstein, jornalista, em artigo publicado por El Salto, 31-07-2024.
As consequências sobre a população civil do uso da inteligência artificial pelo Exército israelense em Gaza evidenciam a urgente necessidade de sua regulamentação com base em princípios éticos.
A atual guerra contra Gaza, já em seu nono mês de conflito e com quase 40.000 palestinos mortos segundo os últimos números oficiais, será tristemente lembrada no futuro por muitas razões. A assustadora cifra de mortes e feridos civis é apenas uma delas. Também entrará para a história por ser o primeiro genocídio transmitido ao vivo em nossos telefones, precedido pelo anúncio do ministro da Defesa israelense Yoav Galant do bloqueio total da entrada de água, alimentos, combustível, eletricidade e ajuda humanitária para a Faixa de Gaza, o que constitui uma flagrante violação do Direito Internacional Humanitário (DIH). Também nos lembraremos desta guerra por ser aquela em que seu principal responsável, Benjamin Netanyahu, foi recebido com honras no Congresso dos Estados Unidos da América enquanto pesavam sobre ele acusações de genocídio por parte da Corte Internacional de Justiça da Organização das Nações Unidas e uma ordem de prisão do Tribunal Penal Internacional.
Mas essa terrível carnificina também será estudada por outro motivo muito menos conhecido, embora igualmente alarmante, e é que a ofensiva desencadeada após os ataques de 7 de outubro representa a primeira ocasião em que um Exército, o de Israel, incorporou de forma maciça e sistemática o uso da Inteligência Artificial (IA) em suas operações militares, o que desempenhou um papel central na inaudita escala de devastação humana e material deste conflito. Um antes e um depois na história militar com profundas implicações legais, éticas e científicas que precisam ser abordadas de maneira urgente pela comunidade internacional.
Assim foi como um oficial de inteligência israelense descreveu o funcionamento do conjunto de sistemas de IA que o Exército de Israel está empregando de forma integrada na guerra de Gaza. Foi em um artigo da revista +972 — formada por jornalistas palestinos e israelenses — crítico à ocupação, publicado no fim de novembro de 2023, gerando um importante eco na imprensa internacional, embora talvez não tanto quanto se poderia ter esperado. Um segundo artigo do mesmo meio, publicado em abril, completaria a fotografia do sinistro esquema tecnocientífico que sustenta as operações israelenses em Gaza.
Em síntese, a investigação da revista revelou como Israel faz uso combinado de dois sistemas de IA para a geração de alvos militares em Gaza. Por um lado, a IA Habsora (esta palavra significa "evangelho") é capaz de identificar edifícios que abrigariam membros e operativos militares do Hamas e da Jihad Islâmica Palestina, os dois principais grupos armados que operam em Gaza. Em paralelo, a IA Lavender faz um trabalho semelhante focado nos indivíduos, buscando identificar membros de ambas as organizações. Ambos os sistemas funcionam mediante a busca de padrões com base em uma série de elementos fornecidos em uma fase prévia de ‘treinamento’. O sistema é completado por uma terceira IA denominada Where’s Daddy?, que permite realizar o rastreamento dos alvos humanos uma vez localizados, priorizando o bombardeio desses em suas residências, por ser considerada muito mais alta a probabilidade de sucesso no ataque. A designação de alvos militares é acompanhada em todo momento pela estimativa de vítimas civis colaterais do ataque, estabelecendo-se um intervalo aceitável que vai desde 15 para um soldado raso do Hamas até 300 para um alto cargo.
O resultado desse sofisticado sistema é que nas primeiras semanas de guerra Israel foi capaz de gerar mais de 37.000 alvos militares, em comparação aos 50 anuais que os serviços de inteligência eram capazes de gerar anteriormente. Alvos militares diretamente vinculados aos ataques israelenses e que contribuem para explicar as esmagadoras 15 mil vítimas mortais que ocorreram nas primeiras seis semanas do conflito.
O Exército de Israel não negou a existência desses sistemas, embora argumente que eles não determinam seus alvos militares, e que apenas fornecem informações adicionais aos seus serviços de inteligência na condução de suas operações. No entanto, numerosos testemunhos revelaram como, devido à enorme pressão existente nas primeiras fases da guerra para atacar o mais duramente possível o Hamas, o tempo médio de validação humana do alvo proposto por Lavender era de cerca de 20 segundos. Na prática, isso significava uma validação quase automática, em que se verificava apenas se o alvo era um homem ou uma mulher, aceitando-se sistematicamente no caso de ser masculino. A margem de acerto de Lavender é de 90%, o que demonstraria uma autorização sistemática de ataques sabendo-se que 10% deles recairiam sobre vítimas civis inocentes.
A problemática gerada pela introdução da IA em operações militares não reside nos sistemas de IA em questão, mas nas atitudes e comportamentos que elas incentivam. As tecnologias contribuem para modelar as percepções e ações das pessoas, gerando novas práticas e formas de viver, desempenhando um papel ativo na tomada de decisões e na formação da moral coletiva. No caso em questão, a quase automatização na seleção de alvos militares rotiniza um ato que tem consequências diretas sobre a vida e a morte de outras pessoas, reduzindo ao mínimo a tomada de decisões por parte do pessoal militar. Após décadas de estreita convivência entre máquinas e pessoas, acabamos por admitir como válido o que elas dizem, especialmente em casos onde geram informações a um ritmo rápido demais para acompanharmos. A consequência direta disso é a existência de uma aparente 'brecha de responsabilidade', que gera a ilusão de que as pessoas que validam os alvos militares fornecidos pela IA estariam isentas de responsabilidade.
A irrupção dos sistemas de IA no terreno militar também gerou uma crescente preocupação com sua compatibilidade ou não com o DIH, as leis que regulam a guerra. Cada vez mais vozes clamam por um marco normativo para regular o uso da IA com fins militares para assegurar sua compatibilidade com o DIH. Outras defendem diretamente sua proibição, argumentando uma total incompatibilidade entre a IA e o DIH. No plano judicial, as consequências sobre a população civil do uso desses sistemas estão no ponto de mira das causas abertas do governo do primeiro-ministro israelense Benjamin Netanyahu, tanto com a Corte Internacional de Justiça como com o Tribunal Penal Internacional.
Para compreender melhor o contexto em que se produziram os avanços tecnológicos que estão sendo implantados em Gaza pelo Exército de Israel, é importante prestar atenção ao ecossistema israelense de I+D+i. Atualmente, o Estado de Israel é o terceiro no mundo em investimentos em IA, apenas superado pelos Estados Unidos e China. Israel possui o maior número de start-ups per capita do mundo e goza de um arcabouço legislativo que favorece enormemente sua proliferação. O próprio Netanyahu referiu-se em várias ocasiões à IA como a "nova eletricidade", afirmando que aqueles que dominarem a IA dominarão o futuro.
Não é coincidência que, em junho de 2023, Sam Altman e Ilya Sutskever, os cofundadores da OpenAI, a empresa por trás do ChatGPT, visitaram Israel e se reuniram pessoalmente com Netanyahu. Tampouco que recentemente duas das empresas tecnológicas mais importantes, Intel e NVIDIA, tenham confirmado dois projetos multimilionários em Israel para a construção de uma fábrica de microchips e de um dos supercomputadores mais potentes até hoje, respectivamente. O estado israelense favorece ativamente a inovação tecnológica, que acaba por reverter e se adaptar às necessidades de seu aparato militar. Tecnologias que posteriormente Israel vende a outras nações com o atrativo de terem sido testadas em combate.
O vertiginoso desenvolvimento da IA nos últimos dez anos e sua incursão de maneira cada vez mais generalizada em praticamente todas as esferas de nossas sociedades, desde a medicina até as finanças, passando pela criação artística ou a tradução simultânea, deu lugar a uma crescente preocupação sobre os efeitos negativos e/ou indesejados de muitos desses novos sistemas. Paralelamente ao crescimento da IA, a comunidade acadêmica e de pesquisa tem liderado uma série de iniciativas reclamando o estabelecimento de um marco comum para o desenvolvimento da IA que esteja ancorado nos princípios e valores éticos e morais próprios das democracias modernas, entre os quais se destacam os Princípios de Asilomar e a Declaração de Barcelona. Em todas essas iniciativas encontramos um chamado à urgente necessidade de regular o desenvolvimento da IA para assegurar que as necessidades humanas se mantenham sempre no centro, por meio de um marco ético que certifique os desenvolvimentos tecnológicos em IA, e uma exigência de transparência e prestação de contas dos sistemas.
É de comum acordo que a IA tem um enorme potencial para enfrentar os grandes desafios contemporâneos como a mudança climática ou a proliferação de pandemias, mas também que representa uma ameaça direta aos direitos humanos básicos. Em seu último relatório anual, a Anistia Internacional alertou pela primeira vez sobre a ameaça do descontrolado avanço da IA e o risco de que aumente as desigualdades raciais, a vigilância e o discurso de ódio na internet.
O filósofo português Boaventura de Sousa Santos, em sua brilhante reflexão sobre a incerteza, o medo e a esperança, alertava sobre como o conhecimento científico e os desenvolvimentos tecnológicos derivados tendem a ser controlados por e beneficiar determinados grupos sociais, deixando de fora o restante da população, de tal maneira que a produção científica se realiza “sobre eles e eventualmente contra eles e, em qualquer caso, nunca com eles”.
A devastadora cifra de vítimas civis na Faixa de Gaza é, dependendo do prisma pelo qual se olha, uma constatação dramática de como as tecnologias moldam nossas sociedades, mentalidades e comportamentos, evidenciando a imperiosa necessidade de regulamentar o desenvolvimento de novas tecnologias baseadas na IA. Uma regulamentação que, no entanto, parece distante e até utópica no caso das tecnologias com fins militares, contra as quais chocam frontalmente as demandas de transparência e livre acesso. Frente a esse beco aparentemente sem saída, uma moratória total ao uso de IA com fins militares até que se tenha uma regulamentação internacionalmente acordada se apresenta como uma solução lógica, que, contudo, parece pouco provável de ser aceita pelas grandes potências militares.
No mesmo ano em que foi publicado o texto de Boaventura de Sousa, houve um grande avanço nas técnicas para a detecção do câncer de mama mediante a colaboração entre homem e máquina. Ao combinar os resultados do patologista, que tinham um margem de erro de 3,4%, e os de um sistema de IA, que tinham um margem de erro de 7,5%, conseguiu-se reduzir o margem de erro para apenas 0,52%. O progresso científico melhorou enormemente a qualidade de vida em alguns aspectos, ao mesmo tempo que indubitavelmente a piorou em outros. Graças à tecnologia, vivemos mais e melhor, mas também estamos levando o planeta em que vivemos a limites que podem acabar por torná-lo inabitável. Frente a esse dilema, o caminho a seguir é uma tecnologia a serviço das pessoas e não o contrário, evitando assim que as pessoas passem a ser meios para os fins do progresso.
FECHAR
Comunique à redação erros de português, de informação ou técnicos encontrados nesta página:
Israel, Gaza e a Inteligência Artificial: um precedente inquietante. Artigo de Javier Bornstein - Instituto Humanitas Unisinos - IHU