24 Junho 2025
“É justo fazer perguntas éticas e morais decorrentes da onipresença da Inteligência Artificial em nossas vidas, mas devemos fazê-lo sem a presunção de ter respostas universalmente válidas em nossos bolsos”. Para Alessandro Vespignani, professor de física na Northeastern University e diretor fundador do Northeastern Network Science Institute em Boston, esse é o espírito com que a questão relativa aos limites éticos e morais da Inteligência Artificial deve ser abordada, a mesma abordada pelo Papa Leão XIV, na mensagem enviada aos participantes da Segunda Conferência Anual sobre Inteligência Artificial, ética e governança empresarial.
A reportagem é de Valentina Arcovio, publicada por La Stampa, 21-06-2025.
As palavras do Papa revelam uma grande preocupação sobre o assunto. Considera esses temores compreensíveis?
Em primeiro lugar, considero muito importante que o Papa e a comunidade católica tenham se questionado sobre a Inteligência Artificial e que tenham demonstrado que desejam desempenhar um papel ativo nesse processo de discussão. Considero compartilhável grande parte do que foi expresso pelo Papa, especialmente a parte em que se especifica que dados e algoritmos por si só não são significativos.
Um monte de dados não gera conhecimento, assim como um monte de tijolos não faz uma casa. Devemos pensar na Inteligência Artificial como uma ferramenta que funciona sobre algoritmos criados pelo homem e que funciona sobre dados sempre inseridos pelo homem. É claro que é onipresente, agora abrange diferentes aspectos de nossas vidas e, portanto, é normal nos perguntarmos quais devem ser os limites da ética e da moral, que são diferentes dos limites legislativos.
Em que sentido?
Uma coisa é a regulamentação da Inteligência Artificial, ou seja, o arcabouço de normas dentro do qual opera. Outra coisa é a ética e a moral, que podem ser muito variáveis entre diferentes culturas. O que pode ser considerado ético e moral no Ocidente pode não o ser no Oriente e vice-versa. O mesmo vale para a Inteligência Artificial: quem pode nos dar respostas universalmente válidas que nos ajudem a definir um perímetro? Quem estabelece que uma resposta é mais correta do que outra? Ninguém!
Parece uma questão insolúvel?
É um desafio complexo. Mas o fato de não ser apenas a comunidade científica que levanta perguntas é algo muito positivo. Nessa discussão, o principal obstáculo é a ignorância. Nem toda a população possui aquela alfabetização computacional, ou seja, aquele conhecimento dos mecanismos de funcionamento da Inteligência Artificial e do mundo algorítmico, que podem lhe permitir abordar a questão conscientemente. É nessa faixa da população que se torna real o perigo de pensar na Inteligência Artificial como um oráculo, a fonte de todas as respostas. É um erro gravíssimo: a Inteligência Artificial é mais humana do que pensamos, com todas as limitações e vieses do mundo humano.
Como podemos combater a ideia de uma Inteligência Artificial onisciente?
Com o conhecimento que pode advir de uma aliança entre educação humanística e científica. Quanto mais informados e educados formos sobre Inteligência Artificial, mais fácil se torna compreender suas oportunidades e limites. Agora, mais do que nunca, precisamos de uma reavaliação séria sobre a formação científica.