15 Março 2024
“A Inteligência Artificial, aplicada à corrida armamentista, deixa de ser inteligência e passa a ser estupidez, pois ativa a chave de uma Caixa de Pandora que, assim como acontece com essas caixas, uma vez aberta, não se fecha”, escreve Fernando Flores Giménez, professor de Direito Constitucional e diretor do Instituto de Direitos Humanos da Universidade de Valência, em artigo publicado por La Marea, 13-04-2024. A tradução é do Cepat.
Existem máquinas que podem decidir autonomamente agir letalmente contra seres humanos. São chamadas de robôs assassinos, embora também sejam conhecidas como LAWS: Lethal Autonomous Weapons Systems. As minas antipessoais eram – são – LAWS. Rudimentares, antiquadas hoje (embora não tão fora de moda), mas cumprindo em seu currículo as características básicas daquilo que o Grupo de Especialistas Governamentais em Tecnologias Emergentes no Campo de Sistemas de Armas Autônomas Letais considera necessário para reconhecer sua marca: a letalidade (carga útil suficiente para matar), autonomia (não há controle humano no processo de execução de sua tarefa), impossibilidade de parar (uma vez iniciada, não há como voltar atrás ou o custo é muito alto) e efeito indiscriminado (independentemente das condições, cenários e objetivos).
No entanto, falta a estas minas uma característica: a evolução, o que indica que o dispositivo se adapta ao contexto, aprende de forma autônoma e amplia suas capacidades para além do controle humano. Elas não a têm, mas, sim, os robôs assassinos desenvolvidos, cada vez mais independentes.
Porque os LAWS evoluíram, e muito. Antes, a autonomia da máquina se reduzia a decidir se explodiria quando um ser humano pressionasse acidentalmente seu detonador. Em qualquer lugar, a qualquer hora, quem quer que fosse o infeliz transeunte: um soldado, uma médica, um estudante, uma jornalista, um empresário da indústria de armamento. Agora, um enxame de drones suicidas pode se espalhar por uma área ou até mesmo entrar em uma casa, perseguir e investir contra com qualquer pessoa que faça um movimento ou que tenha a temperatura humana padrão.
A utilização de robôs semiautônomos (uma etapa anterior ao assassino) já pode ser vista em vídeos propagandísticos, mas reais, que circulam nas redes sobre o seu uso na guerra da Ucrânia, ou ouvida nos noticiários que nos informam sobre como jornalistas palestinos e suas famílias são assassinados em Gaza. De sua parte, em maio de 2021, a ONU denunciou o uso de drones totalmente autônomos para matar pessoas na Líbia. Já estão aqui.
As minas antipessoais são consideradas não éticas, porque um robô assassino, por mais tosco que seja, não faz distinções, não distingue o legal do correto. Lutou-se muito contra elas por esse motivo. Não cumprem o que chamam de ‘ética bélica’, um oxímoro brutal, mas razoável quando não se tem algo melhor para negociar acerca de como regular o uso das armas. Aquela luta terminou com a aprovação do Tratado de Ottawa, ou Convenção sobre a Proibição do Uso, Armazenamento, Produção e Transferência de Minas Antipessoais e sobre a sua Destruição, que entrou em vigor em 1999.
Estados Unidos, Rússia e Israel (entre outros) já deixaram claro que se opõem a um tratado que proíba as armas autônomas. Estão em outra guerra, a da competição tecnológica, na corrida – frenética e muito cara – pela superioridade em Inteligência Artificial. E assim explicam: uma coisa são as tecnologias emergentes, como a digitalização, a inteligência artificial e a autonomia das máquinas, que podem ser empregadas respeitando plenamente o direito internacional (por exemplo, apagando grandes incêndios), e outra são essas tecnologias como elementos integrais dos LAWS.
Ninguém duvida disso, mas é conhecida a tendência irresistível do poder em usar os desenvolvimentos tecnológicos para aumentar as capacidades militares (o Exército sempre está por trás das pesquisas mais avançadas), e poucos necessitam da explicação do que é um bem de duplo uso, pois foi expresso pela primeira vez no Código de Justiniano, lá pelo século VI.
Na realidade, as justificativas e os argumentos a favor do uso de LAWS já são facilmente encontrados em artigos e conferências patrocinadas por grandes somas de dinheiro. Os LAWS impulsionam o desenvolvimento tecnológico para “tomar as melhores decisões”, para “salvar as vidas de nossos jovens” ou para tornar a guerra “mais precisa e mais humana”. E por aí vai.
Contudo, um robô não distingue o legal do correto, pois não entende os conflitos morais, e embora seja verdade que muitas vezes nós, humanos, também não somos capazes de escolher o que é justo frente ao aparentemente legal e à obediência devida, chegado o momento, ao menos saberemos de quem é a decisão homicida, de quem é a responsabilidade. Porque a arma autônoma letal não se compadece da vítima, nem assume responsabilidades.
Sendo assim, a única posição digna neste assunto passa pela proibição de LAWS, ou ao menos pela sua regulamentação estrita no marco do Direito Internacional Humanitário, normativa que busca limitar os efeitos dos conflitos armados, principalmente protegendo as pessoas que não participam deles. Por isso, as armas autônomas que não possam ser totalmente controladas pelos seres humanos devem ser proibidas, bem como aquelas que por tais motivos possam causar mortes, ferimentos e danos acidentais e indiscriminados a civis. E aquelas que não podem ser relacionadas com a responsabilidade de uma cadeia de comando e controle humanos devem ser descartadas.
Em última análise, a Inteligência Artificial, aplicada à corrida armamentista, deixa de ser inteligência e passa a ser estupidez, pois ativa a chave de uma Caixa de Pandora que, assim como acontece com essas caixas, uma vez aberta, não se fecha.
FECHAR
Comunique à redação erros de português, de informação ou técnicos encontrados nesta página:
A necessidade de proibir (ou ao menos regulamentar) robôs assassinos - Instituto Humanitas Unisinos - IHU