07 Janeiro 2022
Os debates éticos sobre a guerra estão entrando em uma nova era com as armas autônomas letais que podem cometer crimes de guerra sem que seja realmente possível identificar os criminosos responsáveis. Os “Lethal Autonomous Weapons Systems” (LAWS) estão levantando múltiplas e graves questões éticas, já que o fator humano é praticamente excluído do controle final sobre seu potencial letal.
A reportagem é de Ben Joseph, publicada por UCA News, 06-01-2022. A tradução é de de Luisa Rabolini.
Essas armas autônomas, ou robot killer, já fizeram sua primeira vítima em 2020, de acordo com um relatório recente do Conselho de Segurança da ONU sobre a guerra civil na Líbia. Ao contrário das armas semiautônomas, como os drones, a atuação dos LAWS não é controlada pelo homem, e as decisões sobre vida e morte são deixadas para sensores, software e processos automáticos, que eliminam a piedade e outras avaliações humanas do campo de batalha.
Nações como Índia, China e Coréia do Sul já começaram a usar os LAWS. Com o tipo de rivalidade militar presente na região, as armas automáticas encontram lugar de destaque nos planos militares de muitos estados da Ásia. A Ásia, por outro lado, sempre foi o "campo de teste" das armas mais avançadas e, em alguns casos, o impacto e as consequências ainda incidem na vida de milhões de pessoas que nunca participaram de nenhuma guerra (basta pensar na bomba atômica no Japão).
Mas são as forças armadas de todo o mundo que estão se voltando para as armas autônomas letais. Só os EUA alocaram US $ 18 bilhões para seu desenvolvimento entre 2016 e 2020. A Rússia é outro país que está definitivamente investindo nessas armas. Considerando que cada vez mais países estão desenvolvendo armas inteligentes capazes de destruição em massa, seria importante ter leis internacionais para controlar seu uso. Infelizmente, até agora, houve pouco consenso internacional sobre como enfrentar a questão da remoção da responsabilidade humana na decisão de matar.
A Sexta Conferência de revisão da Convenção sobre a Proibição ou Restrição do Uso de Certas Armas Convencionais, em sua reunião quinquenal realizada em Genebra de 13 a 17 de dezembro de 2021, tinha como objetivo reconhecer a necessidade traçar normas e limites morais para assegurar um controle humano sobre o uso de armas autônomas letais e também tinha a ambição de iniciar negociações sobre um instrumento juridicamente vinculante. A Conferência terminou com a indicação de “considerar propostas”, de elaborar possíveis medidas “levando em consideração os protocolos existentes”, adiando tudo para novas discussões em 2022.
Quase 68 nações e muitas ONGs, entre as quais o Comitê Internacional da Cruz Vermelha (CICV), haviam pedido à ONU a elaboração de um instrumento regulatório, mas diversas nações, incluindo Rússia, Índia e Estados Unidos, decididamente travaram o pedido.
A Santa Sé expressou seu desapontamento por nada ter sido feito quanto ao instrumento jurídico. Na conferência de Genebra, Mons. John Putzer, encarregado da Missão Permanente de Observador da Santa Sé junto à ONU em Genebra, ressaltou a decepção do Vaticano e reiterou que, na opinião da Santa Sé, no uso de armas “é imperativo garantir uma supervisão humana adequada, significativa e coerente", uma vez que apenas os seres humanos "estão aptos a ver os resultados de suas ações e compreender as conexões entre causa e efeito".
O representante do Vaticano também propôs "a criação de uma organização internacional para a inteligência artificial, para facilitar e garantir o direito de todos os Estados de participarem no intercâmbio mais amplo possível de informações científicas e tecnológicas para fins pacíficos e para o bem comum de toda a família humana". Neste tempo de pandemia, parece mais importante do que nunca "colocar as tecnologias emergentes ao serviço da humanidade para fins pacíficos e para o desenvolvimento humano integral".
Sabe-se que as pessoas são consideradas responsáveis por suas ações mesmo em tempo de guerra, como foi o caso de Slobodan Milosevic, ex-presidente da Iugoslávia, acusado de crimes contra a humanidade e crimes de guerra em 2011. Mas as armas autônomas podem ser consideradas responsáveis pela morte vidas humanas? Quem será o responsável se um robô cometer um crime de guerra? Quem vai enfrentar o processo? A arma? Os militares? Os produtores? Vislumbra-se uma grave lacuna na atribuição de responsabilidades em termos legais e morais.
Hoje se reconhece que os quadros normativos existentes não estão aptos a enfrentar e resolver as graves questões levantadas pela utilização das armas autônomas, as quais tornam extremamente difícil (senão impossível) estabelecer uma responsabilidade precisa pelo resultado de seu uso. Portanto, um empenho comum em nível internacional parece urgente e necessário para garantir os instrumentos para poder estabelecer se as armas-robô serão no futuro autorizadas a tomar decisões autônomas sobre a vida ou sobre a morte.
FECHAR
Comunique à redação erros de português, de informação ou técnicos encontrados nesta página:
As armas autônomas: questões não resolvidas - Instituto Humanitas Unisinos - IHU