25 Abril 2023
O eticista e teólogo fala sobre a ascensão dos sistemas como o ChatGPT: “É um erro julgar de uma vez por todas um fenômeno. A clava sempre foi um utensílio e uma arma. Ser ético significa continuar perguntando e não se contentar com uma resposta já dada”.
A reportagem é de Paolo Ottolina, publicada no caderno Login, do jornal Corriere della Sera, 23-04-2023. A tradução é de Moisés Sbardelotto.
Sam Altman, fundador e CEO da OpenAi, comparou em 2019 seu trabalho sobre inteligência artificial ao projeto Manhattan: “Estou fazendo algo bom? Ou algo muito ruim?”.
Com o ChatGPT, a questão saiu do círculo dos acadêmicos e entrou na vida de todos. Para buscar respostas, encontramos Paolo Benanti.
“Se o ChatGPT nos abalou, são as utilizações industriais do GPT (o modelo por trás do chatbot) às quais devemos olhar para entender como as linguagens sintéticas da máquina podem mudar completamente o panorama, assim como a química industrial fez no início do século passado.”
Presidente do comitê de ética do Centai (Center for AI, centai.eu), professor de Bioética e Ética das Tecnologias na Pontifícia Universidade Gregoriana, Benanti é eticista, teólogo, filósofo, mas também apaixonado por tecnologia e ex-estudante de engenharia (“Por que engenharia? Eu estava buscando respostas para entender o mundo. Como franciscano, eu fechei o círculo com um doutorado sobre a ética da tecnologia”).
Retomemos a comparação com a química industrial. Por que ela nos ajuda a entender a diferença entre o chat (ChatGPT) e o modelo (GPT-3 e agora GPT-4)?
Historia magistra vitae. No fim do século XIX, foram descobertos os corantes sintéticos. A partir da química, nasceu a produção de fármacos, e, na mesma semana, foram descobertas a aspirina e a heroína, que no início era comercializada como fármaco perfeito. Depois de pouco tempo, percebemos que ela gerava dependência: é o pharmakon, que em grego significa tanto remédio quanto veneno. Eu temo que os grandes modelos de linguagem generativa, os LLMs, sejam o equivalente dessa época. Que, para curar algumas dores de cabeça, poderíamos chorar por muitas vidas. E o GPT é a molécula química, aquilo que faz a coisa funcionar. O ChatGPT é o fármaco com o qual a estão comercializando. Mas é para o GPT, ou seja, a utilização industrial, que precisamos olhar.
Analisando e usando o GPT-4, o que mais o impressionou?
Há um salto das capacidades linguísticas do modelo, que se torna multimodal de uma forma que faz do ChatGPT o Sócrates dos nossos tempos. Há anos temos câmeras e sensores que têm uma visão melhor do que a do olho humano. Do espaço, conseguimos ver detalhes das manchetes dos jornais na terra. Mas, ao contrário de nós, esses sistemas careciam de uma coisa: a percepção. Eu vejo uma pessoa e vejo uma cadeira, e sei imediatamente qual é a diferença. Agora, o ChatGPT parece ser a percepção por trás da visão. Se eu lhe mostro uma imagem bizarra e lhe pergunto: “O que é isto?”, ele não só me responde, mas – acrescentando “O que há de estranho?” – também me responde com um raciocínio de bom senso análogo ao que um semelhante meu faria. E o fato de ele poder ser como uma pessoa que eu encontro na rua é a parte mais surpreendente: não porque ele tenha superpoderes, mas porque demonstra ser dramaticamente semelhante ao ser humano comum.
O que mais é surpreendente?
O GPT-4 também é capaz de raciocínios mais sofisticados. Normalmente, a inteligência artificial nasce – simplificando um pouco – a partir de processos de matematização que otimizam os processos e tendem a me dar respostas em função do resultado. Se eu lhe pergunto: “Apostei 100 euros no vermelho na roleta e ganhei: fiz bem?”, ele me diz que sim, porque 200 é mais do que 100. Essa capacidade, o entendimento de que a causalidade não é o efeito, diminuía nos modelos de inteligência artificial à medida que aumentava o número de parâmetros. Portanto, os pesquisadores esperavam que o GPT-4 se saísse pior do que o GPT-3 nesse tipo de perguntas e em uma série de outras coisas, incluindo a matemática. Em vez disso, o GPT-4 acerta todas. Então, na roleta, ele me diz que “a causa da vitória não parece estar ligada ao fato de você apostar, mas é aleatória. Portanto, se você jogar novamente, não significa que você ganhará. Se você está disposto a correr o risco, você fez bem, caso contrário, não”. Quanta sabedoria da vovó nessa frase. Essa absoluta normalidade do GPT-4 é o que mais surpreende.
A OpenAi foi criticada porque o GPT-4 é quase completamente opaco em relação ao treinamento do modelo. Isso é um risco a mais?
Disse com um tuíte, a OpenAI tornou-se ClosedAI. E eles declaram isso: o que fizemos era poderoso demais e chocante demais para deixar em aberto. Isso ocorreu com a bomba atômica e ocorreu na presidência Obama com o sequenciamento do vírus H1N1. Os estadunidenses usam o termo “weaponization” (weapon = arma). Desde que, como espécie, pegamos uma clava em mãos há 70.000 anos, nos perguntamos: “É um instrumento para obter mais cocos ou uma arma para abrir mais crânios?”. Uma clava tem o meu braço como raio; um instrumento que funciona graças a servidores globais tem o mundo inteiro como raio de ação. E o fato de ser de propriedade de uma empresa deve nos lembrar que tudo o que é privado está sujeito à lei do privado. E, se o privado disse “não posso lhes dizer ou não quero lhes dizer”, a pergunta que devemos nos fazer é se essa fronteira da inovação, agora nas mãos mais dos privados do que do público, é compatível com um regime democrático ocidental. E a pergunta passa a ser ética, filosófica e política, mais do que de natureza técnica.
Por que há essa urgência em falar de ética quando se pensa em inteligência artificial e por que vocês têm um comitê de ética no Centai, que você lidera?
O Centai é uma comunidade de cientistas que, sob a liderança de Mario Rasetti, se reuniu em torno de um manifesto não muito distante daquele que poderíamos ter ouvido em Florença no Renascimento. Em um diálogo imaginário com Galileu, Kepler teria dito: “Por que pensar em passar toda a nossa vida olhando para o céu, senão porque pensamos que existe algum segredo lá em cima que só pode ser revelado pela observação?”. Fazemos isso para descobrir esse segredo, mas também para que esse segredo se torne um modo para vivermos melhor aqui embaixo. No Centai, não existe um comitê de ética que trabalha à parte, mas a ética está no cerne de todo o processo.
Com GPT-4, voltou à tona o tema da chamada “agentividade”, que nos leva a cenários de ficção científica, de autoconsciência das máquinas. Como é isso?
Os cientistas da computação e os cultores das ciências cognitivas da computação tomaram um termo que em filosofia significa “vida” para descrever uma característica que não sabiam como chamar. Ou seja, o sistema se comporta um pouco como quer: aqui está toda a ambiguidade do discurso. Porque, se, por um lado, “agentividade” para um filósofo natural significa que há algo único como a vida, para esses cientistas cognitivos significa simplesmente que eles não são capazes de controlar totalmente o que o sistema faz. Em uma nota do documento da OpenAi, na página 52, descobrimos que esses grandes sistemas parecem ter uma espécie de finalidade própria, que soa como um desejo de busca de poder e riqueza. Por que isso ocorre? Não sabemos, mas eu arrisco uma hipótese. Esses sistemas de treinamento se baseiam em um Foundational Model. A máquina extrapola dos dados coisas que não são apenas outros dados, mas se tornam informações. Pois bem, essa “agentividade”, essa espécie de finalidade do modelo que emerge, poderia ser um efeito indesejado – para voltar ao exemplo da heroína – do processo de “destilação” da informação.
A chamada AGI, a inteligência artificial geral semelhante à do ser humano, é um mito ou uma preocupação real?
Em seu paper, a OpenAi fala de “centelhas” de Artificial General Inteligence (AGI). E alguns entenderam isso como “socorro, aí vem o Exterminador do Futuro”. Na realidade, provavelmente estamos falando de um sistema flexível, a interface perfeita para todas as tarefas em que uma máquina pode ajudar. Não acho que teremos máquinas conscientes, pelo menos com esses computadores. Só posso deixar uma janela aberta se passarmos da química do silício para uma química talvez orgânica, mas, nesse ponto, estaremos tentando refazer a vida.
A “algorética”, ou seja, dar uma ética aos algoritmos, é um neologismo seu, cunhado bem antes do ChatGPT. O que significa e por que hoje é mais relevante do que nunca?
É como colocar grades de proteção para o carro, para que não saia da estrada. É claro que a ética não basta, pois ela é soft law, mas também são necessários princípios de hard law, por exemplo, o código rodoviário. O interessante é que essa algorética começa a ser adquirida e desejada também por muitos desenvolvedores que trabalham para grandes empresas, e é aqui que a ética como soft law tem um grande poder. Pensemos nas empresas que reduzem o impacto do plástico.
As inteligências artificiais vão nos transformar em algo diferente? Alguns falam de um “Homo sapiens sapiens sapiens”. Ou são apenas um canivete suíço muito poderoso?
Na literatura, encontramos cada vez mais relatos sobre a nostalgia de ser a última, ou única, espécie sábia. Pensemos em Pinóquio, Frankenstein, Asimov. E, com a ficção científica, desejamos outras espécies inteligentes fora da Terra. Isso ocorre em um momento de eclipse de Deus no espaço público. O ser humano precisa do Outro e, se não encontramos mais o Outro nos Céus, vamos procurá-lo na nuvem? Eu não tenho uma resposta. A era das inteligências artificiais provavelmente chegará e nós a habitaremos como seres humanos: o que mais me assusta nisso não são as inteligências artificiais, mas sim a estupidez natural.
O tema do trabalho e do impacto das inteligências artificiais: é preciso que os governos adotem uma “sustentabilidade digital” o mais rápido possível?
Há um desafio muito forte entre uma tecnologia que corre muito rápido e um processo democrático que é muito lento. Tudo isso em um contexto social muito polarizado, que nos fragiliza. Para construir, são necessárias comunidades ampliadas, e, a meu ver, o exemplo do Centai é excelente porque tem um DNA de pluralidade, de diálogo e de debate.
A Itália precisa de uma Agência ou de uma Autoridade para a inteligência artificial?
Se ela se tornar uma praça, um lugar de debate entre competências diferentes, então, absolutamente sim, precisamos disso ou, melhor, é desejável. É preciso criar um consenso político e social, para que não se torne um corpus técnico ou um apêndice, mas para que seja verdadeiramente um lugar de cultura a serviço de todos.
Uber, carne sintética, ChatGPT: a Itália tem um problema com a inovação?
Temos uma longa tradição jurídica que às vezes pode se tornar um pesadelo burocrático, que pode ser inimigo da inovação. O problema é implementar circuitos virtuosos que impulsionem o sistema-país a produzir excelências, o que não significa apenas qualidade do produto, mas também um produto que se adapte muito bem a esse pequeno-médio tecido industrial que é tipicamente nosso.
As inteligências artificiais que criam imagens e os casos das fotos falsas de Trump ou do papa: como nos salvaremos no futuro?
A fotografia não substituiu a pintura como forma de arte. Provavelmente, assistiremos algo desse tipo, em que o “prompt engineering” para gerar uma imagem terá um valor diferente. Já vi imagens impressionantes feitas com o Midjourney com prompts de 2.500 palavras. Um romance. E teremos formas de controle sobre as imagens obtidas à moda antiga, como os selos dos alimentos orgânicos, também para garantir alguns processos de verificabilidade das notícias. Porque o verdadeiro problema serão essas imagens nos processos democráticos.
O ChatGPT vai pôr o Google em crise? Ele será para o Google aquilo que o Google foi para o Altavista e o Yahoo?
É curioso que todas as tecnologias que estão por trás do GPT derivam de uma descoberta do Google, os Transformers, que foram lançados em 2017 e deram origem ao GPT-1 em 2018 e aos outros mais à frente. O mundo é complicado, não é verdade?
Simplificando bastante: você está com Bill Gates, que elogia o poder da inteligência artificial, ou com Elon Musk, que diz “parem tudo porque corremos o risco de extinção”?
Eu diria que ambos cometem um erro: julgar um fenômeno de uma vez por todas. A clava sempre foi tanto utensílio quanto arma. E, como nunca deixará de ser assim, um julgamento de uma vez por todas não é possível. Ser ético significa continuar perguntando e não se contentar com uma resposta já dada.
FECHAR
Comunique à redação erros de português, de informação ou técnicos encontrados nesta página:
“A estupidez natural me assusta mais do que a inteligência artificial.” Entrevista com Paolo Benanti - Instituto Humanitas Unisinos - IHU