08 Mai 2023
Yudkowsky diz que carta subestima a gravidade da situação, e extinção da raça humana seria a "coisa mais óbvia" nas circunstâncias atuais, somada ao nosso estado de ignorância.
A reportagem é de Liliane Nakagawa, publicada por Tecmasters, 01-04-2023.
“Desligue tudo. Nós não estamos prontos.”
O alerta vem após a carta aberta publicada na quinta-feira (30), a qual pede que “todos os laboratórios de IA parem imediatamente o treinamento de sistemas de IA mais poderosos do que o GPT-4 por pelo menos seis meses”. A fala é do teórico de decisões e pesquisador líder do Machine Intelligence Research Institute, Eliezer Yudkowsky.
Em um artigo para a revista Time, o pesquisador que trabalha com alinhamento de Inteligência Geral Artificial desde 2001, e é considerado um dos fundadores da área, revela não ter assinado a carta, embora tenha dito que a moratória de seis meses ainda é melhor que nenhuma. “Eu me abstive de assinar porque acho que a carta está subestimando a gravidade da situação e pedindo muito pouco para resolvê-la”.
Yudkowsky diz que a questão-chave do documento erra ao focar na inteligência humana-competitiva. “É o que acontece depois que a IA chega à inteligência mais inteligente do que a humana. Os limiares-chave podem não ser óbvios, definitivamente não podemos calcular antecipadamente quando o que acontece, e atualmente parece imaginável que um laboratório de pesquisa cruzaria as linhas críticas sem perceber”, explica.
“Se alguém construir uma IA muito poderosa, sob as condições atuais, espero que cada membro da espécie humana e toda a vida biológica na Terra morra logo em seguida.”
Sem exageros, Yudkowsky conta que este é um consenso entre os pesquisadores mergulhados nessas questões (incluindo ele mesmo) — o resultado mais provável de uma IA sobre-humanamente inteligente, sob as circunstâncias atuais, é que literalmente todos na Terra vão morrer. “Não como em ‘talvez alguma chance remota’, mas como em ‘essa é a coisa óbvia que aconteceria'”.
Isso por que, caso haja uma tentativa dos humanos, teoricamente, criando algo muito mais inteligente, isso exigiria precisão e preparação e novos conhecimentos científicos, e provavelmente não ter sistemas de IA compostos de gigantescas matrizes incompreensíveis de números fracionários.
Sem essas exigências, o resultado mais provável seria a criação de uma IA que não nos obedece, não se importa conosco e nem com a vida geral senciente. Tal cuidado deveria estar impregnado em uma inteligência artificial, recomenda o pesquisador. “Mas não estamos prontos e não sabemos como”.
Seria como “o século 11 tentando lutar contra o século 21”, “Australopithecus tentando lutar contra o Homo sapiens” ou ainda “uma criança de 10 anos tentando jogar xadrez contra Stockfish 15” — as metáforas são totalmente válidas para descrever o nosso fracasso total diante do embate humanidade versus uma inteligência sobre-humana adversária.
Para exemplificar plasticamente, Yudkowsky empresta um pouco do cenário de pesadelo catastrófico narrado em A guerra dos mundos, de H. G. Wells, e novamente sem exageros. “Uma IA suficientemente inteligente não ficará confinada aos computadores por muito tempo”. Ele compara a IA hostil sobre-humana a “toda uma civilização alienígena, pensando em velocidades milhões de vezes humanas, inicialmente confinada aos computadores — em um mundo de criaturas que são, de sua perspectiva, muito estúpidas e muito lentas”.
“No mundo de hoje você pode enviar a estrutura de DNA para laboratórios que produzirão proteínas sob demanda, permitindo que uma IA inicialmente confinada à internet construa formas de vida artificiais ou bootstrap direto para a fabricação molecular pós-biológica”, exemplifica.
“Se houvesse um plano para que a Terra sobrevivesse, se apenas passássemos por uma moratória de seis meses, eu apoiaria esse plano. Não existe nenhum plano desse tipo.”
Sem planos, o pesquisador observa as posturas dos principais laboratórios frente ao problema.
Enquanto a intenção da OpenAI é de fazer com que alguma futura IA faça nossa lição de casa de alinhamento de IA — “plano que levaria qualquer pessoa sensata a entrar em pânico” —, a DeepMind, outro laboratório líder em IA, não tem nenhum plano.
“Não temos ideia de como decodificar qualquer coisa que se passa nas gigantescas matrizes impenetráveis.”
Este é considerado o cerne de tantos outros problemas relacionados à IA de imediato, mas que também colocam em perigo o futuro.
Não saber o que se passa nas matrizes impenetráveis faz com que não tenhamos ideia de como determinar se sistemas de IA estão cientes de si mesmos. Desta forma, em algum momento é possível que se criem “inadvertidamente mentes digitais que são verdadeiramente conscientes e deveriam ter direitos e não deveriam ser possuídas”, adverte o pesquisador, frisando que o perigo não depende se as IAs são ou não conscientes.
Ao se referir à autoconsciência, Yudkowsky concorda que as IAs atuais provavelmente estão apenas imitando a conversa de autoconsciência a partir de seus dados de treinamento, no entanto, volta assinalar que “com o pouco conhecimento que temos sobre os internos desses sistemas, na verdade não sabemos”.
“Se você não pode ter certeza se está criando uma IA autoconsciente, isso é alarmante não apenas por causa das implicações morais da parte ‘autoconsciente’, mas porque estar inseguro significa que você não tem ideia do que está fazendo e isso é perigoso e você deve parar”, adverte.
Em uma entrevista recente ao canal ABCNews, Sam Altman, CEO da OpenAI, disse estar “um pouco assustado” em relação ao poder e riscos que modelos de linguagem como ChatGPT e suas atualizações, como o recém-lançado GPT-4, representam à sociedade. Anteriormente, ele reconheceu que o modelo, lançado em novembro do ano passado, era um “produto horrível” pelas inúmeras falhas e quedas recorrentes.
“Sair e mostrar que eles podem dançar” — fala de Satya Nadella ao alfinetar a morosidade do concorrente Google.
Em uma disputa para eleger quem lançaria o primeiro buscador integrado à IA conversacional, com a Microsoft levando vantagem sobre a gigante de Mountain View, e rendendo a última uma porção de críticas dos próprios funcionários ao desastroso e precipitado lançamento, Yudkowsky observa que “não estamos levando o problema a sério”.
Na ocasião, Satya Nadella, CEO da Microsoft, se vangloriou publicamente de que o novo Bing faria o Google “sair e mostrar que eles podem dançar”. “Quero que as pessoas saibam que nós os fizemos dançar”, disse ele.
“Não é assim que o CEO da Microsoft fala em um mundo são”, comenta o pesquisador. “Isso mostra uma lacuna enorme entre o quanto estamos levando o problema a sério, e o quanto precisávamos levar o problema a sério 30 anos atrás”.
“E o problema de tentar isso com inteligência sobre-humana é que se você errar na primeira tentativa, não poderá aprender com seus erros, porque você está morto.”
A frase chocante, porém realista, resgata o segundo argumento de Yudkowsky sobre a carta aberta subestimar a gravidade da situação. “Foram necessários mais de 60 anos entre a proposta e o estudo da noção de Inteligência Artificial, e para que pudéssemos alcançar as capacidades atuais. Resolver a segurança da inteligência sobre-humana – não a segurança perfeita, no sentido de “não matar todos literalmente” – poderia demorar muito, razoavelmente, pelo menos metade desse tempo.”, diz.
Por outro lado, algumas pessoas poderiam pensar na tentativa e erro para alcançar os objetivos com a IA, um método que a humanidade têm aplicado ao longo da existência em suas inúmeras descobertas. No entanto, tal hipotética solução não seria possível com a inteligência sobre-humana. Enfático, o pesquisador diz que o problema de tentar isso com essa IA é que “se você errar na primeira tentativa, não poderá aprender com seus erros, porque você está morto”. “A humanidade não aprende com o erro, se desfaz do próprio pó e tenta novamente, como em outros desafios que superamos em nossa história, porque todos nós estaremos mortos”, adverte.
Não estamos entrando com nada parecido com a abordagem que seria necessária para fazê-lo com sucesso, diz o norte-americano sobre acertar algo na primeira tentativa.
“Não estamos no rumo certo para estarmos preparados em qualquer intervalo propício de tempo razoável. Não há nenhum plano. O progresso nas capacidades de IA está correndo muito, muito à frente do progresso no alinhamento da IA ou mesmo do progresso na compreensão do que diabos está acontecendo dentro desses sistemas. Se realmente fizermos isso, todos nós vamos morrer.”
Embora Yudkowsky tenha relatado publicamente a catastrófico futuro que nos aguarda, visão também compartilhada por inúmeros colegas, ele conta que há um sentimento frágil por parte desses pesquisadores que os fazem pensar que não podem deter essa imersão, e que outros continuarão mesmo que alguns deles deixem o emprego por razões pessoais relacionadas. “E assim todos eles pensam que é melhor continuar. Esta é uma situação estúpida e uma maneira indigna de a Terra morrer, e o resto da humanidade deveria intervir neste ponto e ajudar a indústria a resolver seu problema de ação coletiva”, diz.
Essa preocupação da qual Yudkowsky relata fica evidente em um e-mail enviado pelo seu sócio e compartilhado pelo entrevistado.
“Nina perdeu um dente! Da maneira habitual que as crianças fazem, não por descuido! Ao ver o GPT4 apagar aqueles testes padronizados no mesmo dia em que a Nina atingiu um marco de infância, tive um surto emocional que me tirou do chão por um minuto. Tudo está indo muito rápido. Preocupa-me que compartilhar isso aumente sua própria dor, mas prefiro estar ciente de que cada um de nós sofrerá sozinho”.
“Quando a conversa interna é sobre a dor de ver sua filha perder seu primeiro dente, e pensando que ela não vai ter a chance de crescer, acredito que já passamos do ponto de jogar xadrez político sobre uma moratória de seis meses”, observa o destinatário da mensagem.
“Talvez não devêssemos construir a AGI, então.”
A reação vem de pessoas de fora da indústria de IA quando ouvem pela primeira vez sobre o risco de extinção devido à Inteligência Geral Artificial (AGI). Para Yudkowsky, ouvir tais palavras foi como um “pequeno flash de esperança”, um alívio para uma pessoa que tenta fazer com que qualquer um do setor levasse as coisas a sério. “É uma reação mais simples, mais sensata e francamente mais sã que tenho ouvido nos últimos 20 anos”, confessa.
“As pessoas sãs que ouvem sobre isso pela primeira vez e dizem sensatamente 'talvez não devêssemos' merecem ouvir, honestamente, o que seria necessário para que isso acontecesse. E quando o pedido de política é tão grande, a única maneira de passar por isso é os formuladores de políticas perceberem que se eles fizerem negócios como de costume, e fizerem o que é politicamente fácil, isso significa que seus próprios filhos também vão morrer.”
“Nós não estamos prontos. Não estamos no caminho certo para sermos significativamente mais legíveis num futuro próximo. Se formos adiante, todos morrerão, inclusive as crianças que não escolheram isso e não fizeram nada de errado.
Desliguem tudo.”
Definitivamente, esse aviso não é uma brincadeira de 1º de abril.
FECHAR
Comunique à redação erros de português, de informação ou técnicos encontrados nesta página:
Pausar desenvolvimento de IA não é suficiente. “Desliguem tudo”, alerta um dos fundadores da área - Instituto Humanitas Unisinos - IHU