Reflexões sobre inteligência artificial e a paz à luz da mensagem do Papa. Entrevista com Silvano Tagliagambe

Foto: h heyerlein | Unsplash

22 Janeiro 2024

Silvano Tagliagambe, filósofo da ciência e autor de numerosos volumes, ensaios e artigos dedicados também à filosofia digital, responde às perguntas suscitadas pela Mensagem do Papa Francisco por ocasião do 57º Dia Mundial da Paz (1º de janeiro de 2024) sobre Inteligência Artificial e Paz. Pela Mondadori Università, em 2022, ele publicou "Metaverso e gêmeos digitais: a nova aliança entre redes naturais e artificiais".

A entrevista é com Silvano Tagliagambe é de Giordano Cavallari, publicada por Settimana News, 19-01-2024. 

Eis a entrevista.

Professor, qual foi a sua primeira reação à leitura da mensagem do Papa?

Encontrei-me, apesar de todos os riscos que o documento justamente adverte, em um clima positivo – claramente de natureza teológica – em relação à inteligência artificial: é a abordagem que eu também considero a mais adequada diante de um tema de grande complexidade, frequentemente tratado em termos simplificadores ou completamente catastróficos.

Quero lembrar aqui um autor, um filósofo-teólogo, além de ser um cientista, muito querido para mim: o Pe. Pavel Florenskij. Em 1919, ele publicou um título traduzível como "A projeção dos órgãos", no qual sustentou a tese de que a tecnologia não é nada mais do que a projeção, para fora de nós, dos nossos próprios órgãos internos, convidando, portanto, a não temer seus desenvolvimentos, pois sempre devem ser considerados como projeção do humano.

A intuição, verdadeiramente profética naquela época, revelou a relação intrínseca que existe entre a biologia e a tecnologia, que hoje é muito mais evidente do que no século passado: é, portanto, a biologia – ou seja, o conhecimento de nós mesmos e de nosso próprio corpo – que orienta os desenvolvimentos da tecnologia, em um sentido que pode ser positivo para a humanidade. Da mesma forma, inversamente: a tecnologia, com seus desenvolvimentos mais recentes, nos ajuda a "penetrar" em nosso corpo.

Acredito que essa atitude fundamental – precisamente positiva – deve ser bem preservada diante dos grandes desafios da era da inteligência artificial.

Teste de Turing

O que é inteligência e qual é a diferença entre inteligência natural e artificial?

Se falamos de inteligência em geral, podemos defini-la como a capacidade de enquadrar corretamente um problema para fornecer uma solução. Esse critério de definição pode ser aplicado tanto ao que é natural – humano e animal – quanto às máquinas.

Alan Turing (1912-1953) já havia concebido um teste para determinar se poderíamos admitir uma inteligência nas máquinas, portanto, uma inteligência artificial. Ele imaginou um sujeito humano colocado diante de duas salas com portas fechadas: em uma sala, outro sujeito humano seria colocado, enquanto, na outra, uma máquina.

Se entre o sujeito interagindo com ambas as salas se estabelecesse uma comunicação e esse sujeito não conseguisse distinguir se a comunicação em curso era com outro humano ou com uma máquina, teria que se admitir que ambos os interlocutores eram dotados de inteligência. É inegável que muitas máquinas são capazes de superar facilmente o teste de Turing hoje em dia. Portanto, podemos certamente falar de inteligência e inteligência artificial.

Um exemplo eloquente do que foi dito – e do qual se está falando muito ultimamente nas redações jornalísticas e nas comissões universitárias – é oferecido por aqueles textos escritos dos quais não é nada fácil reconhecer a autoria, seja humana ou artificial. Como sabemos, os artigos compostos hoje pela inteligência artificial podem ser escritos até mesmo melhor, e de maneira mais adequada ao propósito, do que aqueles escritos por jornalistas de comprovado profissionalismo.

O mesmo tipo de dúvida e avaliação está surgindo entre os professores universitários envolvidos na leitura e avaliação das teses apresentadas por seus alunos: são escritas por eles ou pelo ChatGPT, e quais são as melhores?

Não apenas isso: para dissipar a dúvida, jornalistas e professores, cada vez mais, estão inclinados a utilizar outra inteligência artificial, capaz, mais do que eles próprios, de reconhecer a autoria dos textos. E isso é apenas um exemplo.

Qual é, então, a diferença entre inteligência humana e inteligência artificial?

Turing, pelo menos em uma fase inicial, cometeu uma imprecisão que nós, hoje, não podemos admitir, ou seja, ele equiparou inteligência à consciência. Nós não podemos, de fato, hoje, considerar que algo que possui inteligência – mesmo que seja superior em capacidade à humana – tenha, por isso, alguma consciência, seja qual for a compreensão da consciência. Este é o ponto crítico em discussão, como bem destacado pelo documento papal.

E qual é a diferença entre inteligência e consciência?

Também para esta resposta, recorro a experimentos e pesquisas científicas. Em 2002, o Prêmio Nobel de Economia foi concedido, pela primeira vez, a um psicólogo cognitivo: Daniel Kahneman. Kahneman conduziu pesquisas em conjunto com Amos Tversky, outro psicólogo cognitivo que, infelizmente, no momento da concessão do Nobel, já não estava mais vivo.

Poderíamos questionar por que o mundo frio da economia se voltou para as pesquisas de dois psicólogos. A resposta está na revelação do efeito framing – mais conhecido como viés de confirmação – com o qual os dois psicólogos lidaram. Em italiano, podemos falar de erros sistemáticos ou, melhor ainda, de preferências ou orientações sistemáticas.

Kahneman e Tversky submeteram especialistas em suas respectivas áreas a alguns problemas. Por exemplo, ao grupo de médicos, apresentaram o problema de uma epidemia que colocaria em risco a vida de 600 pessoas, oferecendo a solução A, pela qual 200 pessoas certamente sobreviveriam e 400 certamente morreriam, em alternativa à solução B, segundo a qual, com 2/3 de probabilidade, todas as 600 pessoas morreriam e com 1/3 de probabilidade, todas sobreviveriam.

Do ponto de vista lógico – de pura inteligência – as duas soluções são totalmente equivalentes, ou seja, 400 pessoas estão destinadas a morrer e 200 a sobreviver. No entanto, no estudo, 78% dos médicos escolheram a solução A – ou seja, o salvamento de aproximadamente 200 pessoas – em vez da solução B, que incluía a possibilidade de ver todos os pacientes morrerem. Se o teste fosse aplicado às máquinas, o resultado seria 50% para cada opção.

Isso significa que os seres humanos, do ponto de vista da pura inteligência, ao contrário das máquinas, expressam preferências, porque são condicionados por "preconceitos" na maneira de enquadrar os dados disponíveis e, portanto, adicionam algo mais. As opções preferenciais, que condicionam a recepção dos dados, são atribuídas à presença de emoções e sentimentos.

Os testes destacam que os seres humanos são movidos, em suas escolhas, por algo muito difícil de definir que chamamos exatamente de consciência: no caso citado, a consciência "certa" de salvar pelo menos 200 pessoas.

Programação, aprendizado, execução

Mas isso é necessariamente um erro?

O problema dos preconceitos surge para os programadores de inteligência artificial. Daí a importância dos estudos de Kahneman e Tversky. Percebeu-se que aqueles que programam, ou seja, orientam o aprendizado das máquinas, são condicionados por opções sistemáticas, ou seja, preconceitos tipicamente humanos – de natureza consciente – que são inconscientemente transmitidos às máquinas.

Notou-se, por exemplo, que certas inteligências artificiais não eram confiáveis na seleção de perguntas de emprego, pois estavam sujeitas a preconceitos transmitidos pelos programadores, em relação, por exemplo, ao sexo feminino ou à cor da pele dos trabalhadores. As máquinas repetem de maneira sistemática as avaliações preferenciais que caracterizam os seres humanos pelos quais são programadas, levando aos erros de inteligência destacados por Kahneman e Tversky.

Mas enquanto os seres humanos – através da consciência – são, pelo menos potencialmente, capazes de evitar ou corrigir seus próprios erros, as máquinas não são capazes de fazê-lo no estado atual das coisas.

Certamente, essas avaliações preferenciais – sujeitas ao julgamento da consciência – não necessariamente devem ser consideradas erros, no sentido de negativos. Isso sempre depende do ser humano.

É possível imaginar transferir para a inteligência artificial os valores mais nobres?

Diria que este é precisamente o desafio ou aposta que temos diante de nós: as máquinas podem ser condicionadas por preconceitos – (bias, em inglês) que, de acordo com nossas consciências, podem ser negativos ou positivos. Portanto, a ética permanece - e deve permanecer - aplicada à tecnologia e, em particular, às diversas aplicações da inteligência artificial.

Evidentemente, as questões éticas a serem enfrentadas nesse sentido são muito amplas e complexas: não se trata simplesmente de estabelecer a priori o que é bom e o que é ruim, e "escrever" na máquina. Nem mesmo nós, humanos, sabemos a priori o que é bom e o que é ruim.

Vamos então ver quais são os principais problemas éticos?

O documento papal os lista de forma pontual. Um primeiro nível de problemas é experimentado por nós mesmos – diretamente – quando utilizamos as novas tecnologias. Parece-me evidente o fosso que está se formando entre as gerações, cada uma com preparação e atitude diferentes no uso dessas tecnologias. Cada nova tecnologia, como sempre foi na história, corre o risco de gerar disparidades e discriminações de natureza econômica, cognitiva e perceptiva. A tarefa da ética é conter o máximo possível essas diferenças, exigindo uma distribuição mais justa de recursos e conhecimentos. O Papa destaca, de maneira perspicaz, as desigualdades sociais já existentes e o risco de que possam se agravar ainda mais.

Um segundo nível de problemas reside no grau de consciência/inconsciência dos processos de transferência ou projeção do humano no artificial, como já mencionado. Estamos lidando com problemas fundamentalmente culturais que, inevitavelmente, se transformam em problemas éticos. Hoje, é necessária mais cultura para que a humanidade possa estar à altura do desafio ético que enfrenta na utilização das novas tecnologias.

Francesco e a IA

No título e no centro da mensagem papal está a questão da guerra e da paz. Parece-me que a inteligência artificial é usada hoje principalmente para fazer a guerra, em vez de promover a paz. O que o senhor pensa?

Certamente, o tema da guerra nos leva ao cerne da relação entre inteligência e consciência. O tema é muito importante e dramático. Sabemos que os sistemas de armas guiados por inteligência artificial (como os drones) estão cada vez mais sendo utilizados nas guerras contemporâneas para atacar alvos humanos, independentemente, por exemplo, do local onde esses humanos (como terroristas) possam estar: em uma escola ou em um hospital, em um mercado ou em uma estação de trem; ou, independentemente de com quem estejam: com familiares, crianças, doentes... militares ou civis, indiferentemente.

A inteligência artificial empregada na guerra atende ao propósito para o qual é programada, de maneira inteligente, muito inteligente – poderíamos dizer – a ponto de acertar uma casa em uma cidade com milhões de habitantes; mas ela o faz, evidentemente, de forma cega, desprovida de consciência.

As guerras conduzidas por inteligência artificial são realizadas por sistemas autônomos, distantes de sujeitos humanos que poderiam ser considerados moralmente responsáveis pelo que está acontecendo. A morte do inimigo ocorre dessa forma, longe dos olhos de quem "atira", poupando-lhe o impacto emocional que o disparo pode causar. O ato puramente inteligente é isento de emoções. Enquanto o ato consciente não pode ser.

Lembro daquela linda canção do músico-poeta Fabrizio de André, que completa 25 anos de seu falecimento: "La guerra di Piero". Algumas estrofes dizem:

"E se gli sparo in fronte o nel cuore
Soltanto il tempo avrà per morire
Ma il tempo a me resterà per vedere
Vedere gli occhi di un uomo che muore

E mentre gli usi questa premura
Quello si volta, ti vede e ha paura
Ed imbracciata l’artiglieria
Non ti ricambia la cortesia".

("E se eu atirar na testa ou no coração
Só o tempo terá para morrer
Mas o tempo me restará para ver
Ver os olhos de um homem que morre

E enquanto você usa essa gentileza
Aquele se vira, te vê e tem medo
E empunhando a artilharia
Não te devolve a cortesia")

Aqui está, ver os olhos de outro ser humano que está morrendo é o que faz a diferença: Piero, na canção, experimenta um momento de hesitação, uma demora da consciência, enquanto está pronto para atirar: é o olhar do outro homem que o provoca. Esse momento de hesitação ou de consciência, muito humano, revela-se "não inteligente", poderíamos dizer, porque lhe custa a vida.

O soldado Piero hoje, equipado com um drone guiado por inteligência artificial, não vive esse momento, porque não vê nada: aquele homem no alvo está muito longe de seus olhos e de sua consciência.

Certamente, portanto, as guerras que utilizam inteligências artificiais tendem a minimizar ou anular qualquer reação emocional humana, a esterilizar as consciências. E isso é um fato que deve fazer muito para refletir.

Como preservar o efeito positivo das primeiras palavras da mensagem do Papa, com o que você está me dizendo?

Eu poderia citar mil outras aplicações em que a inteligência artificial dá uma prova muito positiva de si mesma: na área de cuidados de saúde, por exemplo, eficiência energética, meio ambiente e muito mais.

Mas partimos do pressuposto de que o desenvolvimento e o uso da inteligência artificial são inevitáveis. Mesmo que, absurdo, alguma parte do mundo decidisse renunciar a isso, porque é muito perigoso, sempre haveria outra parte que não o faria. Portanto, não temos outro caminho a percorrer senão – como aliás também disse o presidente Mattarella na mensagem de fim de ano – fazer com que a inteligência artificial "permaneça humana".

O único caminho é aquele que a sabedoria da humanidade sempre buscou, no fundo, não perdendo nunca sua humanidade, não fechando os olhos diante do outro, trabalhando muito na educação, na conscientização, no desenvolvimento de uma crítica bem informada, na cultura e, portanto, na moral.

Um ethos para a IA

Como é possível promover uma cultura ética hoje em um mundo cada vez mais técnico e hiperespecializado por setores?

Não acredito, de fato, que possa existir uma disciplina separada chamada ética. Isso porque não pode haver uma ética separada de seu próprio terreno de cultivo e aplicação. Penso, portanto, em uma cultura abrangente, na qual a filosofia, a teologia, a ciência e a tecnologia possam ser desenvolvidas juntas, começando pela escola.

Portanto, não acho uma boa ideia privar a escola das tecnologias de inteligência artificial – como está sendo proposto em alguns lugares – na tentativa de proteger os jovens dos riscos que mencionamos. Isso produziria apenas o efeito oposto: um efeito de despreparo e de crescente falta de consciência ética.

Penso, em vez disso, que a escola deve preparar para estabelecer as conexões mais significativas entre a imensidão de dados disponíveis hoje, fenômenos e eventos.

Não posso aceitar que alguns professores – físicos e pesquisadores respeitados em seus campos –, uma vez estabelecida a eficácia funcional de certas correlações, se limitem a dizer que o resto não importa para eles: porque as figuras científicas não podem se limitar a descrever como os processos funcionam, mas devem se sentir plenamente envolvidas e responsáveis pelo porquê eles ocorrem e para quê.

Neste sentido, quero lembrar o que Einstein escreveu a Max Born em uma carta de 1924, adaptando-o ao tema que discutimos. Ele afirmou: se fosse imposto a mim me limitar a observar o fato de que as coisas acontecem, privando-me da possibilidade de compreender o porquê, "preferiria ser um sapateiro, ou até mesmo um negociante, em vez de um físico".

Leia mais