18 Junho 2021
Os veículos aéreos turcos de última geração, já utilizados na Líbia, podem escolher sem intervenção humana os alvos a serem eliminados, mas com base em um algoritmo. A ideia de que não existe um controle humano dá calafrios.
O comentário é do teólogo italiano Paolo Benanti e do filósofo italiano Sebastiano Maffettone.
Benanti é franciscano da Terceira Ordem Regular, além de professor da Pontifícia Universidade Gregoriana, em Roma, e acadêmico da Pontifícia Academia para a Vida. Em português, é autor de “Oráculos: Entre ética e governança dos algoritmos” (Ed. Unisinos, 2020).
Maffettone é professor de Filosofia Política na Universidade LUISS Guido Carli, em Roma, onde dirige o Center for Ethics and Global Politics e é presidente da Escola de Jornalismo Massimo Baldini.
O artigo foi publicado em Corriere della Sera, 16-06-2021. A tradução é de Moisés Sbardelotto.
No último século, muitas coisas mudaram nos conflitos armados – aquilo que está em jogo, os combatentes, o espaço em que se combate, as linguagens. E os drones apareceram em cena.
Recentemente, um painel de especialistas das Nações Unidas relatou o uso de um pequeno drone de fabricação turca chamado STM Kargu-2, que no ano passado matou soldados na Líbia combatendo as unidades de Haftar por parte do governo internacionalmente reconhecido, então chefiado pelo primeiro-ministro Fayez al Serraj.
O STM Kargu-2 é capaz de operar com total autonomia, porque, como afirma o relatório da ONU, “os sistemas armados foram programados para atacar os alvos sem exigir a conectividade de dados entre o operador e a munição”, e, portanto, se baseavam na computer vision e no reconhecimento dos alvos por meio da inteligência artificial.
Esses drones são tecnicamente chamados de munição “loitering”, isto é, “munições vagantes”, porque geralmente são verdadeiras munições – muitas vezes granadas – que voam enganchadas a um drone para realizar missões “suicidas” e explodir junto com o vetor sobre o alvo.
Esses armamentos geraram confusão entre os combatentes de Haftar, porque as suas milícias não estavam treinadas para se defender dessa nova tecnologia.
No entanto, a notícia das primeiras vítimas por parte de armas autônomas – Autonomous Weapon System – exige que cada um de nós reflita sobre como os conflitos armados estão se transformando e se podemos deixar que um sistema desse tipo mate um ser humano.
Matar, por si só, não é uma coisa boa. De fato, é algo desencorajado pela ética, pela religião e pelo direito, e o Papa Francisco, na encíclica Fratelli tutti (números 252-262), reconhece que, precisamente diante das novas armas, “conferiu-se à guerra um poder destrutivo incontrolável, que atinge muitos civis inocentes”, tornando-se muitas vezes injustificável.
Apesar disso, os humanos, de Caim aos parentes de Sanan, muitas vezes e de boa vontade se dedicam ao homicídio. Mas nem todos os modos de matar são iguais. Alguns são geralmente permitidos. Por exemplo, geralmente é aceito que se possa matar em legítima defesa e em guerra.
De acordo com a teoria da guerra justa, há dois tipos de considerações a serem feitas para avaliar a moralidade da guerra, considerações que são classificadas como jus ad bellum e jus in bello. Para explicá-las da maneira mais simples possível, o jus ad bellum diz respeito às razões pelas quais se combate, enquanto o jus in bello, ao modo como se faz isso.
A inovação tecnológica trouxe à atenção geral novas problemáticas que dizem respeito ao jus in bello. As mais interessantes delas dizem respeito aos métodos empregados para matar na guerra. De fato, cada vez mais, pode-se fazer isso sem envolver diretamente os humanos.
Existem robôs assassinos, como o Tallon, que podem combater como soldados incansáveis, contra os quais houve inúmeras campanhas de ONGs. E, acima de tudo, existem os drones.
Os drones são – definição da Wikipédia – “aeronaves remotamente pilotadas”. E, como tais, não são por si sós perigosos. Eles podem ser comprados, se se quiser, na Amazon, como brinquedos ou para tirar fotos em um evento especial.
Mas aqui estamos falando de drones que matam alvos distantes de quem os emprega. Há uma tese segundo a qual, se a guerra é justa, você pode usar todos os meios que quiser, incluindo drones (do tipo: “Se quem está do outro lado é Hitler, não nos preocupemos com os detalhes”). Mas essa tese encontra objeções variadas.
Uma objeção de tipo tradicionalista diz que uma guerra – do tipo daquela que pode ser travada com armas à distância – em que uma parte não corre riscos, não pode ser aceitável. Essa objeção, que é chamada de “assimetria”, também insiste às vezes no fato de que a guerra implica virtudes militares, como a coragem, que, neste caso, não podem ser exibidas.
Mas, é lícito contestar, se os mesmos resultados podem ser alcançados poupando vidas, por que não? Sim, mas o fato de poupar vidas implica mais ou menos automaticamente diminuir o limiar de letalidade da guerra. Menos mortos e menos riscos – em outras palavras – poderiam tornar mais fácil a decisão de ir entrar em guerra, e isso não é bom.
Ou quem é contrário aos drones pode sustentar que eles contornam a distinção essencial entre combatentes e não combatentes. Ou ainda que empregar drones facilite a violação do princípio de proporcionalidade (“já que é fácil assim destruir sem correr riscos, então vamos em frente”). Ou, finalmente, que o emprego dos drones poderia causar violações mais graves dos direitos humanos. E assim por diante...
Mas a discussão em questão tornou-se mais acalorada devido à inovação de que falamos no início: o emprego de drones letais não guiados à distância por humanos.
Esses drones de última categoria podem decidir sozinhos, com base em um algoritmo, quais alvos escolher e – se considerarem oportuno – eliminá-los. A ideia de que não existe um controle humano dá calafrios. Até porque não se trata de uma hipótese escolar, mas sim de fatos confirmados.
Essas inovações bélicas da tecnologia digital precisam o mais rápido possível do suporte da algorética e da roboética para evitar que a analogia continue em novas e sangrentas páginas da história.
Essas preocupações podem ser agrupadas em quatro temas (cf. Amoroso e Tamburrini, na revista Roboethics de 2020): o respeito ao direito humanitário internacional, os problemas de atribuição de responsabilidades, as violações da dignidade humana e o aumento do risco para a paz e a estabilidade internacional.
Para responder a esses desafios, nós pensamos que a algorética e a roboética requerem e justificam a afirmação de que é necessário implementar sempre aquilo que é definido como um controle humano significativo (Meaningful Human Control ou MHC) em sistemas armados, especialmente no modo como as suas funções de seleção e engajamento dos alvos críticos.
Consequentemente, a noção de MHC entra no debate sobre as armas autônomas como um vínculo ética e legalmente motivado em relação ao uso de qualquer sistema armado, incluindo os autônomos. A questão do controle compartilhado humano-robô na guerra, portanto, é abordada a partir de uma perspectiva humanitária distinta, na medida em que o targeting autônomo pode incidir de modo profundo nos interesses de indivíduos e grupos de pessoas que merecem proteção.
FECHAR
Comunique à redação erros de português, de informação ou técnicos encontrados nesta página:
Novas armas: drones já decidem por si próprios se e quando matar. Artigo de Paolo Benanti e Sebastiano Maffettone - Instituto Humanitas Unisinos - IHU