Chegou o "momento Oppenheimer" para os criadores da IA. Artigo de Nathan Gardels

Foto: Canva Pro | Getty Images

11 Julho 2024

Como controlar uma tecnologia que poderia devastar a sociedade?

"O primeiro perigo evidente e atual apresentado pela IA é sua possível instrumentalização bélica no conflito entre Estados Unidos e China", escreve Nathan Gardels, em artigo publicado por El Salto, 08-07-2024.

Nathan Gardels possui formação em Teoria e Política Comparada e em Arquitetura e Urbanismo pela UCLA, sendo atualmente editor-chefe da revista Noema. É um dos fundadores e conselheiro do Instituto Berggruen, além de autor e coautor de vários livros. Foi editor-chefe de veículos de comunicação e contribuiu com numerosos artigos para The Wall Street Journal, The New York Times, The Washington Post, entre outros. Além disso, seus textos foram publicados em veículos estrangeiros como Corriere della Sera, El País, Le Figaro, The Guardian, Die Welt, entre outros.

Eis o artigo.

O diretor de cinema Christopher Nolan reconhece ter conversado com cientistas especializados em IA que estão passando por um "momento Oppenheimer" e estão receosos do potencial destrutivo de sua criação. Nolan reflete sobre seu filme biográfico e explica: "Conto a história de Oppenheimer porque acho que é importante, mas também porque é uma história de advertência". De fato, já há quem compare Sam Altman, da OpenAI, com o pai da bomba atômica.

Oppenheimer foi batizado por seus biógrafos como o "Prometeu americano" por ser quem arrebatou dos deuses o segredo do fogo nuclear, dividindo a matéria com o fim de liberar uma energia atroz que, segundo seus temores, poderia calcinar toda a civilização.

Por sua vez, Altman também se pergunta se fez "algo realmente ruim" ao desenvolver a IA generativa por meio do ChatGPT. Segundo declarou em uma audiência no Senado, "se essa tecnologia der errado, pode dar muito errado". Gregory Hinton, o chamado padrinho da IA, apresentou sua demissão do Google em maio de 2023 e afirmou que uma parte dele se arrependia de ter dedicado sua vida a construir máquinas mais inteligentes que os seres humanos. Ele advertiu que "é difícil entender como evitar que os maus a utilizem para coisas ruins". Outros de seus colegas falaram do "risco de extinção derivado da IA", que se situa no mesmo nível de outras ameaças existenciais, como a guerra nuclear, a mudança climática e as pandemias.

Segundo Yuval Noah Harari, a IA generativa pode se tornar uma tecnologia destruidora de sociedades ou, usando o termo que Oppenheimer tomou emprestado da Bhagavad-gītā para descrever a bomba, "destruidora de mundos". Desta vez, os sapiens se tornaram deuses, engendrando uma descendência inorgânica que um dia poderia destronar seus progenitores. Harari explicou isso em uma conversa há alguns anos: "A história da humanidade começou no momento em que os homens criaram os deuses e terminará quando os homens se tornarem deuses".

Conforme explicavam Harari e os coautores Tristan Harris e Aza Raskin em um ensaio recente: "No princípio era a palavra. A linguagem é o sistema operacional da cultura da humanidade. Da linguagem emanam o mito e a lei, os deuses e o dinheiro, a arte e a ciência, as amizades, as nações e o código informático. A inteligência artificial conseguiu dominar a linguagem, o que lhe permite hackear e manipular o sistema operacional da civilização. Esse domínio da linguagem dá à inteligência artificial a chave mestra da civilização, que compreende desde os cofres dos bancos até os sepulcros mais sagrados".

Eles continuaram assim:

Durante milhares de anos, os humanos têm vivido imersos nos sonhos de outros humanos. Temos adorado deuses, buscado ideais de beleza e consagrado nossas vidas a causas que surgiram da imaginação de profetas, poetas ou políticos. Em breve, nos encontraremos imersos nas alucinações de inteligências não humanas... Em breve, estaremos frente a frente com o gênio maligno de Descartes, com a caverna de Platão e com a maya budista. É possível que um véu de ilusões desça sobre toda a humanidade e que nunca mais sejamos capazes de erguê-lo ou sequer perceber sua existência.

A ideia de que uma entidade não humana escreva nossa história inquieta tanto o historiador e filósofo israelense que ele recomenda enfaticamente aos sapiens que reflitam antes de ceder o controle de seus domínios à tecnologia.

"Devemos enfrentar a inteligência artificial antes que nossa política, nossa economia e nossa vida cotidiana dependam dela", advertem Harari, Harris e Raskin. "Se esperarmos o caos se instalar, então será tarde demais para remediá-lo".

O panorama "Terminator" é pouco provável

Em um artigo publicado na Noema, o vice-presidente do Google, Blaise Agüera y Arcas, e seus colegas do Instituto de Inteligência Artificial de Quebec não acreditam que, em um futuro próximo, possa ocorrer uma situação semelhante à imaginada por Hollywood em O Exterminador do Futuro, filme em que uma IA malévola desencadeia um caos devastador por onde passa. No entanto, eles se preocupam que focar em uma "ameaça existencial" que possa surgir em um futuro distante nos distraia da necessidade de abordar o perigo evidente e palpável de que a IA desestabilize a sociedade atual.

Seus piores medos estão à nossa porta, com a IA prestes a se tornar uma superinteligência: vigilância em larga escala, desinformação e manipulação, uso indevido da IA pelas forças armadas e a eliminação generalizada de todo tipo de profissões.

Para esse grupo de cientistas e especialistas em tecnologia, "é extremamente improvável que uma extinção ocorra como resultado de uma IA malévola, já que esse cenário depende de suposições duvidosas sobre a evolução a longo prazo da vida, da inteligência, da tecnologia e da sociedade. Além disso, um sistema de inteligência artificial superinteligente teria que superar numerosos limites e restrições físicas antes de poder 'se rebelar' dessa maneira. Existem vários controles naturais que os pesquisadores podem usar para atenuar o risco existencial da IA, enfrentando desafios tangíveis e urgentes sem transformar o risco existencial em uma prioridade global de forma explícita".

Em sua visão, "existem três possíveis causas de extinção: a luta por recursos, a caça e o consumo excessivos, ou a degradação do clima ou do seu nicho ecológico de tal forma que as condições ambientais resultantes provoquem seu desaparecimento. Nenhum desses três casos se aplica à IA em sua configuração atual".

Acima de tudo, "por enquanto, a IA depende de nós, e seria de se supor que uma superinteligência perceberia esse fato e tentaria proteger a humanidade, já que somos tão indispensáveis para a existência da IA quanto as plantas que produzem oxigênio são para a nossa. Portanto, o mais provável é a evolução do mutualismo entre a IA e os seres humanos, e não a competição".

Atribuir um "custo infinito" ao "resultado improvável" da extinção seria equivalente a investir todos os nossos recursos tecnológicos para evitar a mínima possibilidade (uma em um milhão) de que um meteorito caia sobre a Terra, como se fosse uma preocupação em nível planetário. Em poucas palavras, "o risco existencial de uma IA superinteligente não merece ser uma prioridade global, do mesmo calibre que a mudança climática, a guerra nuclear e a prevenção de pandemias".

O outro momento Oppenheimer

Qualquer perigo, seja distante ou próximo, que possa surgir do confronto entre a humanidade e a superinteligência incipiente será agravado pela rivalidade entre os Estados-nação.

Isso nos leva a uma última reflexão sobre a analogia entre Sam Altman e Oppenheimer, que, em seus últimos anos de vida, foi perseguido e isolado. Além disso, foi-lhe negada a autorização oficial para acesso a sistemas de segurança, pois, em plena febre macartista do início da Guerra Fria, ele foi considerado um simpatizante comunista. Seu crime foi se opor ao desenvolvimento de uma bomba de hidrogênio e exigir a colaboração de outros países, incluindo os rivais, para controlar o uso das armas nucleares.

Em um discurso perante cientistas especializados em IA realizado em junho na cidade de Pequim, Altman fez um apelo semelhante à colaboração para regular o uso da IA. "A China possui alguns dos talentos em IA mais brilhantes do mundo", afirmou. Para controlar os sistemas avançados de IA, "é necessário reunir os especialistas mais destacados de todo o mundo. Com o surgimento de sistemas de IA cada vez mais poderosos, nunca antes a cooperação global foi tão crucial".

É válido questionar (e também temer) por quanto tempo o senso de responsabilidade científica universal de Altman resistirá antes de ser engolido, assim como aconteceu com Oppenheimer, pela atual histeria sinofóbica em Washington, semelhante à era de McCarthy. Certamente, o ambiente fervoroso em Pequim representa um risco especulativo para qualquer cientista especializado em IA com quem Altman possa colaborar em nome de toda a humanidade, ao invés de em benefício do domínio de qualquer nação.

O primeiro perigo evidente e atual apresentado pela IA é sua possível instrumentalização bélica no conflito entre Estados Unidos e China. Conforme alerta Harari, o momento de enfrentar essa ameaça é agora, não quando se tornar uma realidade irreversível. É crucial que as partes responsáveis de ambos os lados recorram à sabedoria que não pode ser conferida às máquinas e cooperem para mitigar os riscos. O fato de Altman estar enfrentando outro "momento Oppenheimer" nos aproxima ainda mais do risco existencial.

No entanto, há um sinal positivo: o secretário de Estado dos EUA, Antony Blinken, e a secretária de Comércio, Gina Raimondo, reconheceram esta semana que "nenhum país ou empresa pode moldar sozinho o futuro da IA. [...] A única forma de controlar plenamente e com segurança o potencial da inteligência artificial é através da combinação de dedicação, engenho e cooperação da comunidade internacional".

No entanto, até agora, as iniciativas propostas, por mais essenciais que sejam, continuam sujeitas à rivalidade estratégica e estão limitadas ao mundo democrático. O desafio mais difícil, tanto para os Estados Unidos quanto para a China, é alcançar um compromisso direto para conter a corrida armamentista da IA antes que ela saia do controle.

Leia mais