26 Outubro 2023
Após os alarmes apocalípticos, os principais especialistas em IA – incluindo os “pais” da aprendizagem profunda Geoffrey Hinton e Yoshua Bengio – avançam com propostas concretas para conter os riscos futuros associados a um desenvolvimento descontrolado da inteligência artificial.
A reportagem é de Pier Luigi Pisa, publicada por La Repubblica, 24-10-2023.
“Gerenciando riscos da IA em uma era de rápido progresso.” Este é o título do artigo científico assinado por dois “pais” da inteligência artificial moderna, Geoffrey Hinton e Yoshua Bengio, e 22 outros acadêmicos, incluindo o escritor Yuval Noah Harari e o vencedor do Prêmio Nobel da Economia Daniel Kahneman, autor de um best-seller, o livro Thinking, Fast and Slow (em tradução livre, Pense rápido e devagar). Em comparação com os alarmes apocalípticos dos últimos meses, centrados nos riscos ligados ao desenvolvimento descontrolado da inteligência artificial, os estudiosos deram um passo em frente, propondo soluções concretas para evitar que a IA se transformasse numa ameaça temível. As propostas mais importantes dizem respeito às empresas que desenvolvem inteligência artificial e aos governos que terão de controlar os sistemas de IA existentes e futuros.
No paper, empresas como a OpenAI, que criou o ChatGPT e o Dall-E 3 são convidadas a "destinar pelo menos um terço do seu orçamento para pesquisa e desenvolvimento de IA para garantir segurança e uso ético". Aos governos, por outro lado, é pedido, entre outras coisas, que "solicitem urgentemente o registro dos modelos de IA, a proteção de informantes, relatem incidentes, e controlem os modelos e o uso de supercomputadores".
Há uma atenção especial voltada aos mecanismos que regulam a IA. Sabemos, de fato, como uma piada recorrente no mundo dos pesquisadores diz, que uma empresa como a OpenAI, por exemplo, tem "aberto" apenas o nome. O ChatGPT, como é dito no jargão, é uma "caixa preta": ninguém pode olhar para dentro dela e, portanto, ninguém sabe quais são seus mecanismos, ao contrário das IA "de código aberto", cujo código-fonte é público e acessível para qualquer modificação/desenvolvimento.
O paper assinado por Hinton e Bengio, vencedores do prestigioso Prêmio Turing em 2018, pede aos governos que legislem para que possam "ter acesso a sistemas avançados de IA antes de seu desenvolvimento, para avaliar riscos potenciais, como a capacidade de replicação autônoma, penetração em sistemas de computadores ou disseminação de patógenos pandêmicos".
No artigo, também se lê que "os governos deveriam responsabilizar legalmente os desenvolvedores e proprietários da 'IA de ponta' – o termo usado para descrever a IA mais avançada – pelos danos causados por seus modelos que podem ser razoavelmente previstos e evitados". Essa proposta, em particular, reflete o ponto de vista recentemente expresso por Harari.
Yuval Noah Harari, historiador que conquistou o mundo com seus livros sobre o passado e o futuro da humanidade (de Sapiens a Homo Deus), está preocupado com um futuro em que bilhões de "pessoas falsas" possam ser criadas com extrema facilidade. O autor chegou a pedir "20 anos de prisão" para todos aqueles que criarem "pessoas falsas" usando a IA. "Se você não puder distinguir um ser humano real de um falso", disse Harari em um congresso organizado em Genebra pelas Nações Unidas, "a confiança entrará em colapso. E com ela, a sociedade livre. Talvez as ditaduras consigam lidar de alguma forma, mas não as democracias".
O artigo "Gerenciando riscos da IA em uma era de progresso rápido" também insta os governos a "estar prontos para conceder licenças para o desenvolvimento de inteligências artificiais específicas e suspender o desenvolvimento em resposta a capacidades preocupantes dos sistemas de IA". No documento, a necessidade de tomar medidas urgentes é frequentemente enfatizada. Isso ocorre porque, como afirma o título, a inteligência artificial cresce e melhora em um ritmo extremamente rápido.
"Em 2019, o GPT-2 não conseguia contar de forma confiável até dez", afirmam os signatários do paper.
"Apenas quatro anos depois, os sistemas de aprendizado profundo podem escrever software, gerar imagens fotorrealísticas sob demanda, dar conselhos sobre tópicos intelectuais e combinar o processamento de linguagem e imagem para guiar robôs. À medida que os desenvolvedores de IA escalam esses sistemas, emergem habilidades e comportamentos inesperados que não são o resultado de programação explícita. O progresso na IA tem sido rápido e surpreendente para muitos. Não há motivo para pensar que o progresso da IA deva diminuir ou parar no nível humano. Na verdade, a IA já superou as capacidades humanas em áreas específicas, como o dobramento de proteínas ou jogos de estratégia. Em comparação com os seres humanos, os sistemas de inteligência artificial podem agir mais rapidamente, assimilar uma quantidade maior de conhecimento e comunicar a uma taxa de transmissão muito mais alta. Além disso, podem ser dimensionados para usar recursos computacionais imensos e podem ser replicados em milhões de cópias."
Enquanto Hinton e Bengio continuam a conscientizar o público e os governos sobre a IA que poderia causar danos às pessoas ou à sociedade, pedindo diretrizes e leis para prevenir cenários catastróficos, seu colega Yann Lecun – também agraciado com o Prêmio Turing em 2018 por sua contribuição fundamental para o desenvolvimento da aprendizagem de máquina – reafirma que "a inteligência artificial nunca será uma ameaça para os seres humanos".
É o que LeCun, chefe de IA da Meta (a empresa que controla o Facebook, Instagram e WhatsApp), declarou ao Financial Times. Sua entrevista foi publicada em 19 de outubro, alguns dias antes da divulgação do artigo sobre "gerenciamento de riscos da IA" assinado por Hinton e Bengio.
FECHAR
Comunique à redação erros de português, de informação ou técnicos encontrados nesta página:
“A IA já nos ultrapassou”: o novo documento dos especialistas descreve as propostas para contê-la - Instituto Humanitas Unisinos - IHU