31 Mai 2023
"Causou grande impressão – mas também forte polêmica – a carta aberta, assinada por mais de mil personalidades do mundo da cultura, da ciência e da economia, na qual se denunciavam os riscos do atual desenvolvimento descontrolado da Inteligência Artificial (IA)", escreve Giuseppe Savagnone, diretor do Escritório para a Pastoral da Cultura da Arquidiocese de Palermo, na Itália, em artigo publicado por Settimana News, 26-05-2023. A tradução é de Luisa Rabolini.
“Nos últimos meses”, dizia a carta, “os laboratórios de IA se engajaram em uma corrida desenfreada para desenvolver e implantar mentes digitais cada vez mais poderosas que ninguém – nem mesmo seus criadores – tem condições de entender, prever ou controlar de forma confiável”.
O problema posto pelos signatários é simples: dado que “os sistemas de IA contemporâneos estão se tornando competitivos com os humanos (...), deveríamos desenvolver mentes não humanas que poderiam eventualmente nos superar, ser mais inteligentes e nos substituir? Devemos arriscar perder o controle de nossa civilização?”
Disso surge o pedido: “Pedimos assim a todos os laboratórios de IA que suspendam imediatamente o treinamento de sistemas de IA mais potentes que o GPT-4 durante pelo menos 6 meses. A pausa deveria ser pública e verificável (…). Os laboratórios de IA e os especialistas independentes deveriam usar essa pausa para desenvolver e implementar em conjunto uma série de protocolos de segurança compartilhados para o design e desenvolvimento de IA avançadas", com o objetivo de "garantir que os sistemas que aderem a eles sejam seguros para além de qualquer dúvida razoável".
O apelo, assinado entre outros por personalidades polêmicas como Elon Musk, foi alvo de duas ordens de críticas. Uma relativa à sua praticabilidade. Já foi observado por muitos que não é realista a ideia de envolver todos os países do planeta – desde os Estados Unidos à Rússia, passando e à China – numa interrupção de 6 meses. Mas mesmo que tivéssemos sucesso - e esta é a segunda ordem de objeções -, 6 meses certamente não seriam suficientes para criar um sistema de controles que tornasse os produtos da pesquisa em IA "seguros para além de qualquer dúvida razoável".
No entanto, ninguém contestou a gravidade do problema levantado pelo documento. De fato, alguns que não o assinaram – como Eliezer Yudkowsky, um dos maiores especialistas na área de segurança de sistemas de inteligência artificial – especificaram que não o fizeram porque é demasiado brando: “Eu me abstive de assinar – escreveu Yudkowsky – porque acredito que a carta esteja subestimando a gravidade da situação.'
E pouco depois, no início de maio, chegou a notícia de que Geoffrey Hinton, definido como o "o padrinho da inteligência artificial" deixou o Google, com o qual colaborou durante anos, declarando que o fazia para poder falar livremente sobre os riscos da IA.
Para entender o contexto em que se inserem esses gritos de alarme, basta ler a abertura de um artigo do Sole 24 Ore de 15 de janeiro de 2023, em que é entrevistado Brad Smith, o presidente da “OpenAI”, empresa da Microsoft que criou o ChatGPT, o sistema de inteligência artificial mais poderoso produzido até agora e do qual acaba de ser anunciada uma versão ainda mais potente (mencionada na carta citada no início), o GPT-4.
A jornalista do conceituado jornal, Barbara Carfagna escreve: “2023 é o ano em que a Inteligência Artificial entrará numa nova era, estará ao alcance de todos e transformará a economia, a segurança, o trabalho, as empresas e a própria vida dos seres humanos. Isso foi decidido pelas Big Techs que têm nas mãos os sistemas mais avançados e o acesso a uma enorme quantidade de dados”.
O certo é que estamos diante de uma virada de época, imensamente mais relevante do que muitos outros temas sobre os quais as páginas, os jornais e telejornais polarizam sua atenção e aquela da opinião pública. Talvez o mais alarmante seja justamente essa falta de atenção aos problemas que tal virada comporta e o consequente perigo de que seja gerida, sem qualquer controle adequado, por uma elite econômica cuja lógica é, fisiologicamente, aquela empresarial.
Os perigos associados ao desenvolvimento da Inteligência Artificial sempre foram tratados em romances e filmes de ficção científica. Como no famoso livro de Isaac Asimov Eu robô, de 1950, onde já se destacava lucidamente a necessidade desses produtos da técnica estarem sujeitos a regras morais precisas, inscritas na sua própria estrutura. Eram as “três leis da robótica”:
Na realidade, toda a produção literária e cinematográfica dos últimos setenta anos se encarregou de destacar a precariedade desses esforços do ser humano para manter sob controle suas criaturas. Filmes famosos como Blade Runner (1982), de Ridley Scott, e Matrix (1999), das irmãs Wachowsky, nos acostumaram com a perspectiva de um motim das inteligências artificiais, pintando cenários em que, de instrumentos a serviço dos seres humanos, elas entram em competição com eles, a ponto de torná-los escravos.
Mas tudo isso sempre permaneceu dentro dos limites tranquilizadores de uma projeção no futuro. Agora nos dizem que esse futuro chegou. E que os perigos aventados estão assumindo sobre o presente.
A lista é longa. Começamos com a consequência mais banal de todas as revoluções tecnológicas, a menor necessidade de intervenção humana e a inevitável perda de postos de trabalho. Mesmo que, como no passado, outros poderiam ser criados justamente em função das novas técnicas.
Por outro lado, é completamente novo o perigo decorrente da capacidade da IA de registrar e acumular os dados pessoais, transformando-se assim em um "olho divino" que derruba todas as regras da privacidade e é capaz de prever e, de alguma forma, determinar, os nossos comportamentos. Já agora todos constatamos como os nossos gostos pessoais, expressos em compras feitas na Internet, são arquivados e utilizados para nos propor, com base neles, outros produtos a comprar.
Transposto para o âmbito da pesquisa intelectual, expõe-nos ao risco de que a web nos faça encontrar, sobre um tema, precisamente aquelas fontes de informação e aquelas respostas que correspondem ao nosso perfil intelectual, delineado a partir das nossas escolhas anteriores, atendendo as nossas preferências, mas, ao mesmo tempo, tornando-nos prisioneiros delas.
Essas formas de controle podem se tornar ainda mais perigosas se os critérios pelos quais são exercidas refletirem as ideias daqueles que criaram o algoritmo em base ao qual a IA opera. Uma inteligência artificial que seleciona o pessoal poderia então fazer suas escolhas de forma aparentemente asséptica, mas na realidade inspirada por lógicas discriminatórias baseadas no gênero, etnia, condições sociais e econômicas.
Sem falar na manipulação que a IA é capaz de operar sobre os dados, fornecendo representações completamente distorcidas da realidade e abrindo cenários de realidade virtual até aqui apenas imaginados em filmes de ficção científica como Matrix. Na entrevista ao Times em que explicou os motivos de sua decisão de deixar o Google, Hinton disse também que com inteligência artificial poderíamos chegar a viver em um mundo onde as pessoas "não conseguirão mais saber o que é verdade".
A IA também pode ser usada para a automação da guerra. Até onde pode ir esse automatismo, passando por cima do controle humano? O que pode acontecer deixando para a IA a decisão sobre o tipo de resposta a ser dada a uma ação militar do inimigo?
O que talvez seja mais impressione é o espetáculo, ao alcance de todos, do que o ChatGPT é capaz de fazer (do qual, como já foi dito, já está pronta uma versão ainda mais potente), ao responder a cada nosso pedido com uma velocidade desconhecida à mente humana e com base em um depósito de dados que supera sem comparação qualquer nossa capacidade de documentação. Uma “superinteligência” que, no entanto, está desvinculada do nosso contexto de valores e funciona apenas como um instrumento sem ter condições de avaliar os fins.
Até agora, nos consolávamos enfatizando que a IA não pode fazer nada que não lhe seja ensinado e comandado por quem a programou. No entanto, as novas gerações de inteligência artificial começam a ser capazes de aprender e evoluir de forma autônoma, em relação ao programa original. Até onde pode chegar essa autonomia?
Claro que a necessidade mais imediata é chegar a um acordo sobre os critérios básicos que a produção nesse setor deve obedecer. Também o presidente da “OpenAI” está convencido de que uma tarefa fundamental da humanidade, neste momento, “é estabelecer princípios éticos críticos que sejam importantes para todas as sociedades do mundo (…) O primeiro desafio é criar princípios éticos e implementá-los de forma a ter certeza de que a IA funcionará para servir aos valores humanos."
Nessa perspectiva, Brad Smith no Vaticano assinou a “Rome for AI Ethics”, documento subscrito pelas três religiões abraâmicas promovido pela Pontifícia Academia para a Vida. Para além das diferenças culturais e religiosas, ele observa, “há um consenso emergente sobre os princípios que devem guiar a IA: evitar os danos, ser inclusiva, proteger a privacidade e a segurança, ser transparente para que as pessoas entendam o que a IA está fazendo e manter-se respeitosa das decisões tomadas pelos seres humanos."
Mas o desafio é mais radical: trata-se de entender o que realmente nos caracteriza como pessoas humanos e nos distingue dos nossos produtos. Num momento histórico em que a cultura dominante do Ocidente rejeita desdenhosamente, como uma relíquia do passado, o conceito de "natureza humana", devemos perguntar-nos se existe uma fronteira - qualquer que seja o nome que lhe damos - entre humano e não-humano. Os princípios éticos dependem disso.
Não é por acaso que também eles são hoje objeto de uma relativização total, que nega sua universalidade. Se não existe mais o homem (no sentido do termo grego "anthropos", que inclui o masculino e o feminino) como distinguir o bem do mal que concernem a ele?
Mas, neste ponto, não será surpreendente se as inteligências que nós mesmos inventamos e construímos nos substituírem.
FECHAR
Comunique à redação erros de português, de informação ou técnicos encontrados nesta página:
Inteligência artificial: um desafio sério. Artigo de Giuseppe Savagnone - Instituto Humanitas Unisinos - IHU