‘Robôs assassinos’. É preciso acabar com as armas autônomas. Artigo de Paolo Benanti

Drone Reaper: Avião não tripulado carrega bombas e misseis | Foto: Divulgação

Mais Lidos

  • Em vez de as transformações tecnológicas trazerem mais liberdade aos humanos, colocou-os em uma situação de precarização radical do trabalho e adoecimento psicológico

    Tecnofascismo: do rádio de pilha nazista às redes antissociais, a monstruosa transformação humana. Entrevista especial com Vinício Carrilho Martinez

    LER MAIS
  • A Espiritualidade do Advento. Artigo de Alvim Aran

    LER MAIS
  • Desatai o futuro! Comentário de Adroaldo Palaoro

    LER MAIS

Revista ihu on-line

O veneno automático e infinito do ódio e suas atualizações no século XXI

Edição: 557

Leia mais

Um caleidoscópio chamado Rio Grande do Sul

Edição: 556

Leia mais

Entre códigos e consciência: desafios da IA

Edição: 555

Leia mais

10 Dezembro 2021

 

Armas que usam algoritmos para matar, ao contrário do julgamento humano, são imorais e representam uma grave ameaça à segurança.

 

A opinião é de Paolo Benanti, teólogo e frei franciscano da Terceira Ordem Regular, professor da Pontifícia Universidade Gregoriana, em Roma, e acadêmico da Pontifícia Academia para a Vida.

 

O artigo foi publicado em Avvenire, 09-12-2021. A tradução é de Moisés Sbardelotto.

 

Eis o texto.

 

Talvez precisemos reescrever os mandamentos: agora o “não matar”, tutela fundamental da vida e sinal do valor único de cada um de nós, deve ser escrito não na pedra para o ser humano, mas no código para uma máquina.

Na semana passada, referindo-se à informática e chamando-a de “if Human: Kill ()” – ou seja, sugerindo que, em breve, poderemos ter a faculdade de fazer com que um homem seja morto com um comando de software –, foi lançada uma nova campanha para instar a ONU a realizar uma moratória sobre os Slaughterbots, também chamados de “sistemas de armas autônomas letais” ou “robôs assassinos”. Trata-se de armas que utilizam inteligência artificial para identificar, selecionar e matar pessoas sem o controle de operadores humanos.

Quem conhece um pouco de linguagem de programação de computadores pelo menos já ouviu falar das instruções condicionais. Uma instrução desse tipo é definida como if-else e é um construto lógico que controla a ramificação condicional. As instruções na expressão são executadas se a condição incluída for verificada. Quer-se dar a possibilidade de matar a uma arma automática por força de instruções desse tipo.

Já sabemos que, no caso de drones militares, a decisão de atacar é tomada à distância por um operador humano. No caso de armas autônomas letais, a decisão é tomada por algoritmos automáticos. Os Slaughterbots são pré-programados para matar um “perfil de destino” específico. A arma, então, é instalada em um ambiente onde a sua inteligência artificial procura esse “perfil de destino” utilizando os dados dos sensores, como o reconhecimento facial.

Os Estados Unidos, no dia 2 de dezembro passado, rejeitaram os pedidos de um acordo vinculante para regular ou proibir o uso de “robôs assassinos”, propondo, em vez disso, um “código de conduta” às Nações Unidas. Falando em um encontro em Genebra centrado na busca de um terreno comum sobre o uso dessas chamadas armas autônomas letais, um funcionário estadunidense rejeitou a ideia de regulamentar o seu uso por meio de um “instrumento juridicamente vinculante”. O encontro era preparatório para uma conferência de revisão da Convenção sobre Armas Convencionais, a ser realizada de 13 a 17 de dezembro.

Armas que usam algoritmos para matar, ao contrário do julgamento humano, são imorais e representam uma grave ameaça à segurança. O secretário-geral da ONU, António Guterres, já disse que “as máquinas com poder e discricionariedade para matar sem envolvimento humano são politicamente inaceitáveis, moralmente repugnantes e deveriam ser proibidas pelo direito internacional”.

Agora, resta a parte mais difícil: convencer os corações a escolherem a vida para que a máquina não mate.

 

Leia mais