29 Junho 2024
Padre Paolo Benanti, franciscano, professor da Pontifícia Universidade Gregoriana, estudioso de ética, único italiano membro do Comitê de Inteligência Artificial da ONU e conselheiro do Papa Francisco, sobre temas da inteligência artificial, está no convento “pronto para rezar”.
A reportagem é de Francesca Santolini, publicada por La Stampa, 15-06-2024. A tradução é de Luisa Rabolini.
Há muitos livros de ficção científica na escrivaninha dele, "mas se queres saber o que estou lendo agora, bem, é uma história em quadrinhos, a mais recente da Zero Calcare. Eu realmente gosto da sua abordagem para contar a relação com os pais”.
Padre, está voltando de Cingapura, onde se pode comer a chamada carne cultivada, aquela obtida in vitro a partir de células retiradas de animais. Posso perguntar se a experimentou?
Não, porque estava nas Nações Unidas. Mas se eu tivesse a oportunidade certamente a teria experimentado.
A produção de carne cultivada levanta temas éticos ou, pelo contrário, representa uma alternativa ética à criação intensiva?
Premissa: é uma carne que no momento não tem nenhuma contraindicação sanitária. Dito isto, como todas as tecnologias, poderia ter efeitos não positivos. Se hoje qualquer agricultor do mundo pode criar uma galinha, para a carne cultivada é preciso de um biorreator, de conhecimento biotecnológicos com o risco, em suma, de um novo colonialismo agrícola, ou pelo menos alimentar, pelos quais os países mais avançados tecnologicamente dominam os países menos avançados tecnologicamente. É preciso fazer um discurso ético mais amplo que inclua todos os possíveis efeitos.
No entanto, poderia ser uma alternativa ética à criação intensiva no Norte mundo.
Sim, mas se deixássemos a carne cultivada como única proteína disponível nos países mais pobres, de fato os obrigaríamos a se tornar ainda mais dependentes de nós. A questão não é apenas de saúde –faz bom ou mal? – mas também de justiça social e impacto geopolítico. Ambos com implicações éticas importante.
Hoje é cada vez mais difícil não se colocar uma série de perguntas éticas sobre perspectivas que abrem também a possibilidade de determinar a vida dos seres humanos. Onde está a linha entre a exploração científica e a sacralidade da vida?
A exploração científica enquanto tal significa conhecer o que é a realidade. A sacralidade da vida é respeitá-la por ser uma realidade diferente daquela que nós estamos investigando. Há um limite ao conhecimento de geografia? Não. Há um limite para o que posso fazer para adquirir conhecimento geográfico, por exemplo, das tribos indígenas que querem se autodeterminar na Amazônia? Absolutamente sim. A ciência, como desejo de conhecimento, não é problemática em si, é o uso que dela se faz que é problemático.
Falando de Índios, o New York Times contou como Elon Musk com seu sistema de satélite Starlink conectou à internet uma população no coração da Amazônia, produzindo efeitos devastadores de intoxicação digital. Com que direito se podem realizar experimentos antropológicas desse tipo? Não se trataria de um assustador neocolonialismo digital?
Absolutamente sim. É uma forma de falta de respeito pela alteridade, um tecnoutopismo, onde pensamos que simplesmente porque existe uma tecnologia, essa tecnologia representa o bem para todos. Há um tema de ignorância da pluralidade cultural: o que para mim é o bem, não é obrigatoriamente para os outros. Algumas culturas podem ser devastadas, apagadas, anuladas por uma invasão de conteúdos que não têm condições de processar. Então o problema, mais uma vez, não está nem na ciência nem na tecnologia, mas no uso que os homens fazem dela. O problema não é a internet via satélite, é que Musk quis monetizar isso a todo custo, e considerando que ganhar dinheiro vendendo tal conexão significa fazer com que seja mais usada, pressionou para que essas populações também consumissem o máximo possível do universo digital.
Todas as inovações tecnológicas colocam potencialmente dilemas éticos, mas com o advento da Inteligência Artificial esses questionamentos parecem ainda mais penetrantes.
São certamente mais rápidos e são certamente mais globais. Primeiro, por exemplo, uma máquina exigia uma fábrica localizada em uma determinada área, que operava apenas naquela área. Hoje, a tecnologia chega ao mundo inteiro graças à internet; portanto, os efeitos são globais e mais rápidos em comparação com o passado. Além disso, a inteligência artificial tem o poder de substituir as decisões humanas, por exemplo, o algoritmo, ao contrário do ser humano, nunca se cansa. E, portanto, pode replicar infinitamente escolhas que amplificam as desigualdades. Não é apenas um sistema mais poderoso, mas também mais pervasivo. Essas são as razões pelas quais se olha para o futuro da inteligência artificial com extrema atenção e com uma parcela de saudável preocupação.
Você fala sobre a necessidade de uma algorética para evitar formas desumanas daquela que poderíamos definir uma algocracia.
Um algoritmo é uma espécie de receita que produz um resultado. Com um algoritmo posso conceder um empréstimo a uma pessoa e negá-lo a outra, por exemplo, essa pluralidade de efeitos são de fato modalidades de alocação de recursos e formas de organização do poder. A história nos ensina que muitas formas de organização do poder foram iníquas. Eis então, a algocracia é aquela forma de poder não questionável pelos cidadãos, que é implementada por instrumentos tecnocráticos, como os algoritmos.
Já a algorética é o oposto, é querer dar aos cidadãos a capacidade de abrir a caixa preta, de ver que tipos de mediação de poder se deseja confiar aos algoritmos e discutir sobre isso em um espaço democrático.
Pela primeira vez um pontífice participa de uma cúpula do G7 para intervir sobre a inteligência artificial. Um desafio sem precedentes em termos de complexidade e escala, mas como podem ser afirmadas as razões da ética?
Eu diria que o fato de sete líderes dos países mais industrializados do mundo ouvirem uma voz ‘outra’ significa que é reconhecida a necessidade de perspectivas plurais e isso é muito importante. Dito isso, não acredito que o Papa tenha se apresentado num encontro como este para converter quem quer que seja ou para substituir-se aos outros líderes. Ele é simplesmente o porta-voz de uma parte da humanidade que pede uma nova atenção ao ser humano e à justiça social.
Mas se o Papa Francisco tivesse que escrever uma encíclica sobre a inteligência artificial, o que você lhe aconselharia?
Para usar as mesmas palavras da sua primeira exortação apostólica Evangelii gaudium: ‘a realidade é superior à ideia’. Toda reflexão deve inspirar-se na realidade e permanecer nela ancorada para evitar os nominalismos e as especulações vazias.
FECHAR
Comunique à redação erros de português, de informação ou técnicos encontrados nesta página:
“Também o algoritmo precisa de ética. Assim reduziremos as desigualdades”. Entrevista com Paolo Benanti - Instituto Humanitas Unisinos - IHU