11 Abril 2024
O filósofo Peter Asaro tem um perfil pouco habitual. Especializado em impacto social e ético da inteligência artificial, algoritmos e meios digitais, também desenvolve tecnologias no âmbito da realidade virtual, da computação e, em geral, da robótica, uma de suas grandes paixões.
Em 2009, foi cofundador do Comitê Internacional para o Controle de Armas Robóticas (ICRAC, na sigla em inglês), uma organização que dois anos depois faria parte da criação da coalizão de ONGs que compõem a campanha Stop Killer Robots, dedicada a exigir a proibição das armas autônomas letais.
Asaro é um dos maiores especialistas mundiais em roboética. Realizamos esta entrevista em outubro de 2023, na sede da Organização das Nações Unidas, em Nova York, durante as sessões preparatórias da primeira resolução contra as armas autônomas.
A entrevista é de Patricia Simón e Magda Bandera, publicada por La Marea, 09-04-2024. A tradução é do Cepat.
Após a aprovação da resolução, quais seriam os próximos objetivos?
Quando iniciamos a campanha Stop Killer Robots, em 2012, buscávamos impedir o desenvolvimento destes sistemas. Hoje, já temos modelos de armas que identificam e atacam alvos de forma autônoma, sem mediação humana, baseando-se em algoritmos desenvolvidos por programadores que não sabem como, nem onde estão sendo utilizadas.
Agora, esperamos que a maioria dos países se unam para exigir um tratado legalmente vinculante que proíba estas armas. O secretário-geral, António Guterres, manifestou o seu interesse em alcançá-lo antes de 2026.
Com a oposição de alguns de seus principais produtores, como a Rússia e a Turquia, você avalia que realmente é possível controlar o seu uso?
O objetivo é impedir que os Estados adquiram estas armas e que se crie um mercado internacional. Desse modo, também não vão proliferar entre atores não estatais e organizações terroristas.
A Rússia é o país que mais coloca obstáculos nos debates realizados até o momento. Turquia e Israel já as produzem, opondo-se também a um tratado. Os Estados Unidos e a China lideram o desenvolvimento destes sistemas, mas parece que não se opõem à sua regulamentação, por outro lado, querem que esta reflita as suas condições.
Outro país complicado é a Coreia do Sul, que possui sistemas altamente automatizados e conta com o apoio social para que os robôs possam atuar como combatentes, em vez de humanos. Precisamos fazer com que se unam ao tratado e verificar o que gostariam que fosse incorporado a ele, sem que mine os seus objetivos.
Como essas armas seriam implementadas nos países em paz?
A maior parte será utilizada no sul global, contra populações minoritárias e coletivos que já estão sendo perseguidos, como acontece com todas as armas. Caso não estabeleçamos regras para controlar o seu uso militar, veremos a sua proliferação no uso policial, civil, para o controle fronteiriço... E os governos autoritários vão empregá-las contra suas populações.
Quais são os efeitos que podem ter no desenvolvimento dos conflitos?
As pessoas costumam falar sobre a precisão das armas guiadas e dos drones para atingir um local ou acabar com uma pessoa específica. Consequentemente, os governos estão mais dispostos a atacar áreas habitadas por civis, pois acreditam que o custo em termos de danos colaterais será menor e que podem atacar mais alvos. O resultado é que podem acabar com mais vítimas civis porque realizam mais ataques.
E quando se trata da luta contra o terrorismo, acabam gerando mais terroristas entre os familiares das vítimas. Portanto, mesmo que pensemos que uma tecnologia é precisa e cirúrgica, os efeitos reais não são diferentes dos bombardeios indiscriminados.
No caso das armas autônomas, podem se tornar melhores no momento de assinalar um alvo e apontar com mais precisão, mas quantos erros serão cometidos até chegar a esse ponto? E há também questões básicas: uma máquina não deveria poder decidir se uma pessoa deve viver ou morrer.
E, ao mesmo tempo, o seu suposto inimigo também as desenvolve.
E é assim que chegamos à situação em que acabam ignorando a verdadeira capacidade do outro. Eles a superestimam ou subestimam, o que leva a conflitos muito mais perigosos. E se introduzirmos sistemas que respondem sem intervenção humana, a possibilidade de se iniciar um conflito ou de agravá-lo é incrivelmente maior. E com as guerras cibernéticas e a possibilidade de piratear os sistemas, o risco à estabilidade internacional aumenta enormemente.
Lembremos que Israel usou uma metralhadora a controle remoto para assassinar um iraniano que não sabemos se era um general, cientista ou seja lá o que for. Esses tipos de assassinatos têm repercussões geopolíticas. Também vimos tentativas de acabar com o presidente da Venezuela com drones não tripulados equipados com bombas. O fato de não sabermos a quem atribuir estes ataques complica ainda mais tudo.
Quando ocorreu a crise dos mísseis cubanos, foram os canais de comunicação abertos entre Khrushchev e Kennedy que permitiram o acordo de que continuariam dizendo certas coisas na frente da imprensa para manter seus status, mas que secretamente acalmariam a situação. Isso não vai acontecer com os robôs. E assusta.
Não existe uma ampla rejeição social a essas armas, talvez porque nos habituamos a viver vigiados por nossos celulares, por drones, por câmaras...
Uma das vias pelas quais se normalizou o uso da força pela polícia é o argumento da defesa frente a uma ameaça iminente de violência ou dano corporal. Posto que um robô não é uma pessoa, não precisa se defender, apenas intervir quando alguém está em risco.
No entanto, a questão é que se um sistema é suficientemente sofisticado para compreender a natureza física de uma ameaça, bem como a sua intenção, também deveria ser capaz de tentar desativá-la por meios psicológicos, antes de agir fisicamente. Com estes dois cenários, acabam os casos em que se justifica o uso da força por robôs. Os padrões para que esta tecnologia utilize a violência precisam ser muito mais elevados do que para os seres humanos.
Já em 1960, Hannah Arendt advertia que uma bomba nuclear pode provocar uma destruição em massa de vidas e infraestruturas, mas não é útil em termos de poder porque o território não servirá mais para nada. Porém, com as armas autônomas, os governantes não precisam mais de uma força policial ou de uma agência de inteligência secreta para controlar a população. Simplesmente, podem ordenar que matem ou ameacem quem quiserem, sem nenhum custo para o seu poder.
FECHAR
Comunique à redação erros de português, de informação ou técnicos encontrados nesta página:
“Uma máquina não deveria poder decidir se uma pessoa deve viver ou morrer”. Entrevista com Peter Asaro - Instituto Humanitas Unisinos - IHU