Cientista britânico explica os motivos que o levaram a abandonar o Google e por que o mundo deveria temer essa tecnologia.
Geoffrey Hinton anunciou na segunda-feira que renunciou ao cargo de vice-presidente de engenharia do Google. Ele quer se dedicar a alertar sobre o lado negro da inteligência artificial (IA), conforme disse em entrevista ao The New York Times. A sua não é uma casualidade qualquer: nascido em Wimbledon há 75 anos, este britânico radicado no Canadá é uma lenda na disciplina. Seu trabalho foi decisivo para iluminar algumas técnicas que tornaram possível o ChatGPT, tradutores automáticos ou sistemas autônomos de visão de veículos. Hinton, que recebeu o prêmio Frontiers of Knowledge da Fundação BBVA em 2017, agora acredita que a tecnologia que ele tanto ajudou a desenvolver pode levar ao fim da civilização em questão de anos.
A entrevista é de Manuel G. Pascal, publicada por El País, 07-05-2023.
A obsessão desse cientista sempre foi estudar como o cérebro funciona para tentar replicar esses mecanismos em computadores. Em 1972, ele cunhou o conceito de rede neural. A ideia subjacente é aplicar a matemática à análise de dados para que o sistema seja capaz de desenvolver habilidades. Sua proposta não convenceu na época; hoje, as redes neurais são a ponta de lança da pesquisa de IA. O grande momento de Hinton aconteceu em 2012, quando demonstrou o verdadeiro potencial de sua linha de pesquisa com uma rede neural capaz de analisar milhares de fotografias e aprender sozinha a distinguir certos objetos, como flores, carros ou cachorros. Ele também treinou um sistema capaz de prever as próximas letras de uma frase inacabada, um precursor dos grandes modelos linguísticos de hoje, como o ChatGPT.
Seu trabalho lhe rendeu o Prêmio Turing, considerado o Prêmio Nobel da computação, que recebeu em 2018 junto com outros pesquisadores como Yann LeCun, seu ex-aluno, ou Yoshua Bengio. Tem também nas suas montras o Prêmio Princesa das Astúrias de Investigação Científica. Hinton conversou com o EL PAÍS por videoconferência de sua casa em Londres, para onde se mudou depois de deixar o Google.
Quais são os perigos da IA que enfrentamos?
Existem muitos. A geração de notícias falsas já está causando grandes divisões na sociedade. A eliminação de certos tipos de trabalho terá um impacto no emprego. A diferença de riqueza entre ricos e pobres aumentará. Esses são alguns dos perigos iminentes, embora não me debruce sobre eles, mas sobre outro de natureza existencial. Recentemente, percebi que o tipo de inteligência digital que estamos desenvolvendo pode ser uma forma de inteligência melhor do que os cérebros biológicos. Sempre pensei que a IA ou o aprendizado profundo tentavam imitar o cérebro, mas não conseguiam igualar: o objetivo era ficar cada vez melhor para tornar as máquinas cada vez mais parecidas conosco. Mudei de posição nos últimos meses. Acho que podemos desenvolver algo muito mais eficiente que o cérebro porque é digital.
Por que você acha isso?
O argumento é o seguinte. Com um sistema digital, você pode ter muitas, muitas cópias do mesmo modelo do mundo. Essas cópias podem funcionar em diferentes hardwares. Assim, cópias diferentes poderiam analisar dados diferentes. E todas essas cópias podem saber instantaneamente o que os outros aprenderam. Eles fazem isso compartilhando seus parâmetros. Não podemos fazer isso com o cérebro. Nossas mentes aprenderam a usar todas as suas propriedades individualmente. Se eu lhe desse um mapa detalhado das conexões neurais em meu cérebro, não adiantaria nada. Mas em sistemas digitais, o modelo é idêntico. Todos eles usam o mesmo conjunto de conexões. Assim, quando alguém aprende alguma coisa, pode comunicá-la aos outros. E é por isso que o ChatGPT pode saber milhares de vezes mais do que qualquer outra pessoa: porque ele pode ver milhares de vezes mais dados do que qualquer outra pessoa. Isso é o que me assusta. Talvez esta forma de inteligência seja melhor que a nossa.
Você trabalha nesta disciplina há décadas. Como você chegou a essa conclusão agora?
Foi tentando descobrir como um cérebro poderia implementar os mesmos procedimentos de aprendizagem que são usados em inteligências digitais como as que estão por trás do ChatGPT-4. Pelo que sabemos até agora sobre o funcionamento do cérebro humano, nosso processo de aprendizado é provavelmente menos eficiente do que o dos computadores.
A IA pode ser realmente inteligente se não entender o que as palavras significam ou não tiver intuição?
Deep Learning, se você comparar com a IA simbólica [a corrente dominante na disciplina até o advento das redes neurais, que tentaram fazer a máquina aprender palavras e números], é um modelo de intuição. Se você toma a lógica simbólica como referência, se pensa que é assim que funciona o raciocínio, não pode responder à pergunta que vou lhe fazer. Mas se você tiver um modelo computacional de intuição, a resposta é óbvia. Então aqui está a pergunta: você sabe que existem gatos machos e fêmeas, e você sabe que existem cães machos e fêmeas. Mas suponha que eu lhe diga que você tem que escolher entre duas possibilidades, ambas ridículas: todos os gatos são machos e todos os cachorros são fêmeas, ou todos os gatos são fêmeas e todos os cachorros são machos. Em nossa cultura, temos certeza de que faz mais sentido que os gatos sejam fêmeas, porque são menores, mais espertos e cercados por uma série de estereótipos, e os cães sejam machos, porque são maiores, mais estúpidos, mais barulhentos, etc. Repito, não faz sentido, mas forçado a escolher, acho que a maioria diria o mesmo. Porque? Em nossa mente, representamos o gato e o cachorro, o homem e a mulher, com grandes padrões de atividade neural baseados no que aprendemos. E associamos entre si as representações que mais se assemelham. Isso é raciocínio intuitivo, não lógica. É assim que o aprendizado profundo funciona.
Você sustenta que até agora pensava que a IA superaria a inteligência humana em cerca de 30 ou 50 anos. Quanto você acha que sobrou agora?
De cinco a 20 anos.
Isso está ao virar da esquina.
Não confio muito no meu prognóstico porque acho que errei no primeiro, mas é claro que tudo se acelerou.
Você acha que a IA terá seu próprio propósito ou objetivos?
Essa é uma questão fundamental, talvez o maior perigo que envolve essa tecnologia. Nosso cérebro é resultado da evolução e possui uma série de objetivos integrados, como não machucar o corpo, daí a noção de dano; coma bastante, daí a fome; e fazer tantas cópias de nós mesmos quanto possível, daí o desejo sexual. As inteligências sintéticas, por outro lado, não evoluíram: nós as construímos. Portanto, eles não vêm necessariamente com objetivos inatos. Portanto, a grande questão é: podemos garantir que eles tenham metas que nos beneficiem? Este é o chamado problema de alinhamento. E temos vários motivos para estarmos muito preocupados. A primeira é que sempre haverá quem queira criar soldados robôs. Ou você acha que Putin não os desenvolveria se pudesse? Você pode fazer isso com mais eficiência se der à máquina a capacidade de gerar seu próprio conjunto de alvos. Nesse caso, se a máquina for inteligente, logo perceberá que atinge melhor seus objetivos se ficar mais potente.
O que devemos fazer agora?
Você tem que chamar a atenção das pessoas para esse problema existencial que a IA coloca. Gostaria de ter uma solução, como no caso da emergência climática: devemos parar de queimar carbono, mesmo que haja muitos interesses que o impeçam. Não conheço nenhum problema equivalente a IA. Portanto, a melhor coisa que posso pensar agora é que devemos nos esforçar tanto para desenvolver essa tecnologia quanto para garantir que ela seja segura. E isso não está acontecendo agora. Como isso é feito em um sistema capitalista? Isso não sei.
Você acha que parte do problema reside no fato de que o desenvolvimento da IA está sendo realizado por empresas privadas?
Este tem sido o caso nos últimos anos. O Google desenvolveu internamente chatbots como o LaMDA, que eram muito bons, e deliberadamente decidiu não abri-los ao público porque estava preocupado com as consequências. E assim foi enquanto o Google liderava essa tecnologia. Quando a Microsoft decidiu colocar um chatbot inteligente em seu mecanismo de busca Bing, o Google teve que responder porque opera um sistema competitivo. O Google se comportou com responsabilidade e não quero que as pessoas pensem que saí para criticar a empresa. Saí do Google para poder alertar você sobre os perigos sem ter que pensar no impacto que isso pode ter no seu negócio.
Você discutiu sua decisão com outros colegas? Eles têm as mesmas preocupações que você?
Entramos em um território completamente desconhecido. Somos capazes de construir máquinas mais fortes do que nós, mas ainda estamos no controle. E se desenvolvermos máquinas mais inteligentes do que nós?
Não temos experiência em lidar com essas coisas. Há pessoas que respeito, como meu colega Yann LeCun, que acham que o que eu digo não faz sentido. Eu suspeito que realmente temos que pensar muito sobre isso. E não basta dizer que não vamos nos preocupar. Muitas das pessoas mais inteligentes que conheço estão seriamente preocupadas. Foi o que me convenceu a usar minha reputação para fazer as pessoas perceberem que esse é um problema muito sério.
Você não assinou a carta assinada por mais de mil especialistas em IA solicitando uma moratória de seis meses na pesquisa. Porque?
Acho que essa abordagem é completamente ingênua. Não há como isso acontecer. Mesmo salvando a concorrência entre as grandes empresas, existe a dos países. Se os EUA decidissem parar de desenvolver IA, você realmente acha que a China pararia? A ideia de parar a investigação chama a atenção das pessoas para o problema, mas isso não vai acontecer. Com as armas nucleares, já que as pessoas perceberam que todos perderíamos se houvesse uma guerra nuclear, foi possível obter tratados. Com IA será muito mais complicado porque é muito difícil verificar se as pessoas estão trabalhando nisso.
O que você propõe, então?
O melhor que posso recomendar é que muitas pessoas muito inteligentes tentem descobrir como conter os perigos dessas coisas. A IA é uma tecnologia fantástica, está causando grandes avanços na medicina, no desenvolvimento de novos materiais, na previsão de terremotos ou inundações… Precisamos de muito trabalho para entender como conter a IA. Não adianta esperar que a IA nos supere, devemos controlá-la à medida que ela se desenvolve. Também temos que entender como contê-lo, como evitar suas más consequências. Por exemplo, acho que todos os governos deveriam insistir para que todas as imagens falsas fossem marcadas.
Você está otimista sobre o futuro que nos espera?
Costumo ser uma pessoa bastante otimista. Há chances de não termos como evitar um final ruim. Mas é claro que também temos a oportunidade de nos preparar para esse desafio. Precisamos de muita gente criativa e inteligente. Se houver alguma maneira de manter a IA sob controle, precisamos descobrir antes que fique muito inteligente.
Você confia que os governos encontrarão uma maneira de regulamentar essa tecnologia?
Nos Estados Unidos, o sistema político é incapaz de tomar uma decisão tão simples quanto não dar rifles de assalto a adolescentes. Isso não traz muita confiança em como eles vão lidar com um problema muito mais complicado como esse.
No verão passado, o engenheiro do Google Blake Lemoine ficou famoso em todo o mundo ao dizer que o chatbot em que ele trabalhava, o LaMDA, ganhou consciência. Isso foi um caso premonitório do que estava vindo em nossa direção?
Acho que o que aconteceu contém dois debates diferentes. Primeiro, as máquinas ficarão mais inteligentes do que nós para que possam assumir o controle? E segundo, eles são conscientes ou sencientes ou o que quer que isso signifique? O debate mais importante é o primeiro; na segunda, intervêm crenças pessoais, e isso não me interessa. Em todo caso, me surpreende que haja tantas pessoas que têm muita certeza de que as máquinas não são conscientes, mas que, ao mesmo tempo, não sabem definir o que significa alguém ou algo ser consciente. Parece uma posição estúpida para mim.