15 Agosto 2018
Quando o rei Midas pediu a Dionísio que transformasse em ouro tudo o que tocasse, cometeu uma falha de programação. Não pensava que o deus seria tão literal ao lhe conceder o desejo, e só se tornou consciente de seu erro quando viu sua filha transformada em uma estátua metálica. Max Tegmark (Estocolmo, 1967) acredita que a inteligência artificial pode apresentar riscos e oportunidades similares para a humanidade.
O professor do MIT e diretor do Future of Life Institute, em Cambridge (EUA), estima que o advento de uma inteligência artificial geral (IAG) que supere a humana é questão de décadas. Em sua visão do futuro, poderíamos acabar vivendo numa civilização idílica, onde robôs superinteligentes fariam nosso trabalho, criariam curas para todas as nossas doenças e desenvolveriam sistemas para ordenhar a energia descomunal dos buracos negros. Entretanto, se não formos capazes de lhe transmitir nossos objetivos com precisão, também é possível que essa nova inteligência dominante não se interesse por nossa sobrevivência, ou mesmo que assuma um objetivo absurdo como transformar em clipes metálicos todos os átomos do universo, inclusive os que formam nossos corpos.
Para evitar o apocalipse, Tegmark considera que a comunidade global deve se envolver num debate para orientar o desenvolvimento da inteligência artificial em nosso benefício. Essa discussão deverá encarar problemas concretos, como a gestão das desigualdades geradas pela automatização do trabalho, mas também um intenso esforço filosófico que triunfe onde estamos há séculos fracassando e permita definir de comum acordo o que é bom para toda a humanidade, para depois inculcar isso nas máquinas.
Estes e outros temas relativos à discussão, que Tegmark considera ser a mais importante para o futuro da humanidade, são analisados por ele em seu livro Life 3.0 (“vida 3.0”), que tem por subtítulo “o ser humano na era da inteligência artificial”. Trata-se de um ambicioso ensaio, recomendado por gurus como Elon Musk, em que o cosmólogo sueco busca se antecipar ao que pode acontecer durante os próximos milênios.
A entrevista é de Daniel Mediavilla, publicada por El País, 14-08-2018.
Os humanos, em particular durante os últimos dois ou três séculos, tivemos muito sucesso em compreender o mundo físico, graças ao avanço de disciplinas como a física e a química, mas não parece que tenhamos sido tão eficazes de entender a nós mesmos, descobrindo como sermos felizes ou chegando a acordos sobre como fazer um mundo melhor para todos. Como vamos manejar os objetivos da IAG sem antes alcançar acordos sobre esses assuntos?
Acho que nosso futuro pode ser muito interessante se ganharmos a corrida entre o poder crescente da tecnologia e a sabedoria com que se administra essa tecnologia. Para isso, temos que mudar as estratégias. Nossa estratégia habitual consistia em aprender com nossos erros. Inventamos o fogo, pisamos na bola umas quantas vezes, e depois inventamos o extintor; inventamos o carro, voltamos a pisar na bola várias vezes, e inventamos o cinto de segurança e o airbag. Mas com uma tecnologia tão poderosa como as armas atômicas e a inteligência artificial sobre-humana não vamos poder aprender com nossos erros. Precisamos ser proativos.
É muito importante que não deixemos as discussões sobre o futuro da IA para um grupo de freaks da tecnologia, como eu, e sim que incluamos psicólogos, sociólogos e economistas para que participem do diálogo. Porque, se o objetivo é a felicidade humana, temos que estudar o que significa ser feliz. Se não fizermos isso, as decisões sobre o futuro da humanidade serão tomadas por alguns freaks da tecnologia, algumas companhias tecnológicas e alguns Governos, que não necessariamente serão os mais bem qualificados para tomarem essas decisões para toda a humanidade.
A ideologia ou a visão de mundo das pessoas que desenvolverem a inteligência artificial geral definirá o comportamento dessa inteligência?
Muitos dos líderes tecnológicos que estão construindo a IA são muito idealistas. Querem que isto seja algo bom para toda a humanidade. Mas se você olhar as motivações das companhias que estão desenvolvendo a IA, a principal é ganhar dinheiro. Você sempre ganhará mais dinheiro se substituir humanos por máquinas que possam fazer os mesmos produtos mais baratos. Não ganha mais dinheiro desenhando uma IA que seja mais bondosa. Há uma grande pressão econômica para tornar os humanos obsoletos.
A segunda grande motivação entre os cientistas é a curiosidade. Queremos ver como se pode fazer uma inteligência artificial apenas para ver como funciona, às vezes sem pensar muito nas consequências. Conseguimos construir armas atômicas porque havia gente com curiosidade por saber como os núcleos atômicos funcionavam. E depois de inventá-las, muitos daqueles cientistas desejaram não tê-las feito, mas já era tarde demais, porque àquela altura já havia outros interesses controlando esse conhecimento.
No livro, você parece dar como fato consumado que a IA facilitará a eliminação da pobreza e do sofrimento. Com a tecnologia e as condições econômicas atuais, já temos a possibilidade de evitar uma grande quantidade de sofrimento, mas não o evitamos porque não nos interessa o suficiente, ou não interessa às pessoas com o poder necessário para tal. Como podemos evitar que isso aconteça quando tivermos os benefícios da inteligência artificial?
Em primeiro lugar, a própria tecnologia pode ser muito útil de muitas maneiras. A cada ano morre em acidentes de tráfego muita gente que provavelmente não morreria se andasse em carros autônomos. E há mais gente na América, dez vezes mais, que morre em acidentes hospitalares. Muitas dessas pessoas poderiam se salvar se a IA fosse usada para diagnosticar melhor ou para criar melhores remédios. Todos os problemas que não fomos capazes de resolver devido à nossa limitada inteligência são algo que a IA poderia resolver. Mas isso não é suficiente. Como você diz, temos atualmente muitos problemas que sabemos exatamente como resolver, como o fato de haver crianças que vivem em países ricos e não estão bem alimentadas. Não é um problema tecnológico, é um problema de falta de vontade política. Isto mostra como é importante que as pessoas participem desta discussão e que selecionemos as prioridades corretas.
Na Espanha, por exemplo, o Governo se recusou a se somar à Áustria e muitos outros países na ONU num esforço para proibir as armas letais autônomas. A Espanha apoiou a proibição das armas biológicas, algo que os cientistas dessa área apoiavam, mas não fez o mesmo para apoiar os especialistas em IA. Isto é algo que as pessoas podem fazer: incentivar seus políticos a confrontarem estes assuntos e nos assegurarmos de que guiamos a tecnologia na direção adequada.
A conversa que você propõe em Life 3.0 sobre a inteligência artificial no fundo é muito parecida com a que deveríamos ter sobre política em geral, sobre como convivemos entre nós ou como compartilhamos os recursos. Como acha que a mudança na situação tecnológica vai alterar o debate público?
Acredito que vai tornar as coisas mais drásticas. As mudanças produzidas pela ciência estão se acelerando, todo tipo de trabalho desaparecerá cada vez mais rápido. Muitos riem de quem votou em Trump ou a favor do Brexit, mas sua raiva é muito real, e os economistas lhe dirão que as razões pelas quais esta gente está irritada, por serem mais pobres do que eram seus pais, são reais. E enquanto não se fizer nada para resolver esses problemas reais seu aborrecimento aumentará.
A inteligência artificial pode gerar uma quantidade enorme de nova riqueza, não se trata de um jogo de soma zero. Se nos convencermos de que haverá suficientes impostos para proporcionar serviços sociais e uma renda básica, todo mundo estará feliz ao invés de irritado. Há gente a favor da renda básica universal, mas é possível que haja melhores formas de resolver o problema. Se os governos forem dar dinheiro às pessoas só para lhes ajudar, também pode dá-lo para que as pessoas trabalhem como enfermeiras ou como professoras, o tipo de trabalho que se sabe que dá um propósito à vida da gente, conexões sociais...
Não podemos voltar aos critérios de distribuição do Egito dos faraós, onde tudo estava nas mãos de um punhado de indivíduos, mas se uma só companhia puder desenvolver uma inteligência artificial geral, é só questão de tempo para que essa companhia possua quase tudo. Se as pessoas que acumularem esse poder não quiserem compartilhá-lo, o futuro será complicado.
Se não fizermos nada, qual seriam as principais ameaça provocadas pelo desenvolvimento da IA?
Nos próximos três anos começaremos uma nova corrida armamentista com armas letais autônomas. Serão fabricadas de forma maciça pelas superpotências, e em pouco tempo organizações como o Estado Islâmico poderão tê-las. Serão as AK-47 do futuro, salvo que neste caso são máquinas perfeitas para perpetrar assassinatos anônimos. Em 10 anos, se não fizermos nada, veremos mais desigualdade econômica. E, por último, há muita polêmica sobre o tempo necessário para criar uma inteligência artificial geral, mas mais da metade dos pesquisadores de IA acredita que isso acontecerá em décadas. Em 40 anos nos arriscamos a perder completamente o controle do planeta para as mãos de um pequeno grupo de gente que desenvolver a IA. Esse é o cenário catastrófico. Para evitá-lo, precisamos que as pessoas participem do diálogo.
FECHAR
Comunique à redação erros de português, de informação ou técnicos encontrados nesta página:
"Há uma grande pressão econômica para tornar os humanos obsoletos". Entrevista com Max Tegmark - Instituto Humanitas Unisinos - IHU