16 Dezembro 2021
Um "robô assassino" é uma arma letal autônoma capaz de decidir abrir fogo sem qualquer intervenção humana. Hoje não existem tais máquinas em atividade, mas o progresso tecnológico é tal que o problema de como gerenciar dispositivos desse tipo em breve surgirá.
A reportagem é de Pierre Haski, publicada por Internazionale, 14-12-2021. A tradução é de Luisa Rabolini.
Desde 2014, tem havido discussões sobre a proibição de robôs assassinos. Em 13 de dezembro, teve início, em Genebra, uma conferência internacional que reúne 125 Estados sob a égide das Nações Unidas, mas apesar de uma campanha internacional que pode contar com o apoio de inúmeros países e ONGs, além do próprio secretário-geral, as possibilidades de sucesso são escassas.
Na véspera do evento, o delegado norte-americano Josh Dorosin disse ser favorável à introdução de um código de conduta não vinculante, que acredita seria um instrumento para encorajar o "comportamento responsável" por parte dos Estados. Mas os militantes antirrobôs rejeitam essa posição considerando-a hipócrita e citam o Direito Internacional Humanitário para pedir o banimento total de armas que poderiam decidir sozinhas se um ser humano deve viver ou morrer.
O desenvolvimento da inteligência artificial e de outras tecnologias associadas torna possível uma transformação dos armamentos comparável ao surgimento da aviação ou da proliferação nuclear. Essa evolução permitirá o aparecimento de armas programadas que posteriormente serão autônomas na decisão de abrir fogo contra um alvo.
Atualmente, um drone armado, mesmo a centenas de quilômetros de distância, ainda é controlado por um piloto que decide abrir fogo. Um piloto de drones francês detalhou uma missão em Mali no podcast Le collimateur, do Instituto de Pesquisa Estratégica da escola militar francesa: geralmente vários operadores trocam informações e aguardam uma decisão do nível superior antes de abrir fogo. Isso não impede irregularidades e vítimas colaterais, mas existem indivíduos que controlam o processo.
Se as armas se tornassem autônomas, seriam automatizadas também as preocupações éticas, as dúvidas e o respeito às regras da guerra (já hoje difíceis de enfrentar durante uma ação militar), enquanto os seres humanos ficariam privados de toda responsabilidade. Isso é precisamente o que contestam os defensores da proibição.
As possibilidades de conseguir uma proibição atualmente são mínimas, considerando também o clima de tensão internacional. Para que um tratado sobre os armamentos funcione, é preciso um mínimo de confiança.
“Trust and verify” (confiem, mas verifiquem), disseram os negociadores do desarmamento durante a guerra fria.
Uma abordagem desse tipo é muito mais difícil na era digital, especialmente quando a confiança não existe.
Os estadunidenses afirmam não querer ser os primeiros a introduzir armas autônomas, mas ressaltam que, se seus adversários o fizerem, não poderão permitir que eles adquiram uma vantagem.
Os chineses e os russos certamente assumirão a mesma posição. E quanto à Turquia, ao Irã ou à Coreia do Norte, potenciais proprietários dessa tecnologia?
O problema é de natureza moral, mas também legal. Quem pode ser responsável por um crime de guerra se a ação foi conduzida por uma arma autônoma? Além disso, surge o tema filosófico da relação entre o ser humano e a máquina. Em suma, o tema é muito amplo e merece uma mobilização da opinião pública.
FECHAR
Comunique à redação erros de português, de informação ou técnicos encontrados nesta página:
Em Genebra, discute-se a proibição de robôs capazes de matar - Instituto Humanitas Unisinos - IHU