04 Janeiro 2024
Para o teólogo Paolo Benanti, “a inteligência artificial seria mais humana se soubesse duvidar de suas próprias respostas. A ética é tudo o que não é exigível por lei, portanto só pode ser ensinada a quem possui uma subjetividade".
A entrevista é de Domenico Agasso, publicada por La Stampa, 03-01-2024.
“A misericórdia e a igualdade, mas antes de tudo a dúvida será decisiva nos robôs. Se conseguirmos inserir no ChatGPT a capacidade de duvidar das suas respostas teremos realizado algo que respeitará muito mais a natureza de mulheres e homens". São os principais valores morais a serem transmitidos à Inteligência Artificial (IA) para que “permaneça humana”, segundo o apelo do presidente da República Sérgio Mattarella.
Palavra do teólogo franciscano Paolo Benanti, membro e único italiano do Órgão Consultivo das Nações Unidas para a IA. Com 50 anos, o religioso Regular da Terceira Ordem é professor de Ética e Bioética, Ética da Tecnologia e Inteligência Artificial.
Estamos no alvorecer de um mundo marcado pela IA. Padre Benanti, é possível infundir uma educação aos algoritmos?
Devemos começar dizendo que a IA não pode ser educada moralmente, porque não é uma subjetividade pessoal. Os valores em que se baseia são numéricos. Mas podem ser em certa medida adequados, controlados por algoritmos que podem ser utilizados como uma espécie de guarda-corpo ético. Torna-se, portanto, fundamental uma nova e renovada educação moral daqueles usuários, isto é, dos cidadãos, que não só farão interface com a IA, mas que darão à IA os limites ou os campos de aplicação. Por isso é urgente elevar o nível de ensino ético. No entanto, ao dizer isso, poderia surgir uma ambiguidade.
Qual?
No passado conhecemos formas de Estado ético que eram tudo menos éticas. Então eu gostaria de esclarecer o que se entende por moral nesse sentido.
Explique-nos.
Um juiz inglês de grande autoridade, Lord Moulton, afirmou num discurso no fim da sua carreira que ética é tudo o que não é exigível por lei. No Titanic que estava afundando, alguém disse "mulheres e crianças primeiro", e evacuaram primeiro as senhoras e os pequenos: aquele era o espaço da ética, o espaço da civilidade. Aqui está, devemos construir uma nova camada de civilidade que tenha a função de amortecedor ético: assim se poderá gerir a IA da melhor maneira possível.
O que quer dizer?
Dar prioridade ao ser humano. Entre o objetivo da máquina e o propósito do ser humano, o projeto do humano deve vir primeiro. A IA deve dar ao homem a possibilidade de poder definir as suas prioridades e, portanto, a sua autodeterminação social.
Se a IA fosse uma criança, como poderia ser ensinada?
Essa criança não tem todas as habilidades de um adulto, ao mesmo tempo tem uma velocidade excepcional e nunca se cansa. Diante de uma máquina inesgotável e que funciona com extraordinária velocidade no desempenho da sua tarefa, deve haver vigilância. Ray Kurzweil argumentava que uma máquina programada para produzir clipes de papel - missão aparentemente inofensiva - sem nunca parar poderia levar ao fim do planeta.
Imaginando a IA como um cérebro novo, que valores você introduziria para o bem da humanidade, das sociedades atuais e do futuro?
Depois do nascimento, o nosso cérebro desenvolve-se nos primeiros meses e anos, e isso faz com que as relações que vivemos com as pessoas que cuidam de nós deem o imprinting dos valores. Nós os absorvemos assim. O bem que nos dedicaram nossa mãe e nosso pai e outros familiares nos fazem aprender a reciprocidade dos comportamentos generosos, solidários, responsáveis e educativos. Em vez disso, o “novo cérebro” das IA não está aberto ao que viverá, mas está estruturado sobre o que alguém outro viveu no passado. Portanto, na minha opinião, os valores mais importantes a serem colocados são principalmente três.
O primeiro?
Em primeiro lugar, a dúvida. Dito assim, não parece um valor moral. Mas se perguntarmos algo ao ChatGPT, ele sempre nos dá uma resposta. E às vezes são alucinações. Nesse momento a maior "virtude" a que nós, homens e mulheres, podemos aspirar não é a capacidade de responder, mas de nos questionar se a resposta é válida ou não. Se conseguíssemos dar à máquina a predisposição para duvidar de suas próprias respostas, estaríamos fazendo algo que respeitaria muito mais a natureza humana.
Conte-nos o segundo.
A misericórdia, isto é, a capacidade de não ser determinados apenas pelos eventos negativos que uma pessoa sofreu e registrou na sua história. Não se pode abrir mão da benevolência.
O terceiro?
No âmbito mais social, o aspecto da equidade e da igualdade é crucial. Porque caso contrário a IA alimentará a perigosa divisão em classes sociais através dos preconceitos.
E qual será o papel de Deus?
O tema não será a relação entre Deus e a IA, mas sempre a atitude de nós, homens, com a IA. Porque temos a tendência de criar ídolos, e poderemos ter pessoas que recorreriam às IAs em forma oracular, ou seja, como se fossem oráculos a quem pedir adivinhações, para resolver nossos dilemas existenciais de uma forma que se tornaria falso divino. E então a questão será se o homem procurará na IA um deus que possa controlar, uma espécie de varinha mágica ao estilo Harry Potter que conserta o que está errado. Na prática, o risco é que se olhe para a Nuvem, onde reside a IA, e não para o Céu, e que as IAs sejam consideradas as novas divindades.
FECHAR
Comunique à redação erros de português, de informação ou técnicos encontrados nesta página:
A dúvida que a Inteligência Artificial precisa. Entrevista com Paolo Benanti - Instituto Humanitas Unisinos - IHU