30 Mai 2023
Já é realidade a inteligência artificial passar-se por gente – e logo não seremos capazes de distingui-las. É um erro banalizar a gravidade deste fato, pois destrói a confiança que esteia a vida em comum. Quais as saídas para nos resguardar desta ameaça?
O artigo é de Daniel C. Dennett, professor emérito de filosofia na Tufts University, publicado por The Atlantic e reproduzido por Outras Palavras, 25-05-2023. A tradução é de Maurício Ayer.
O dinheiro existe há milhares de anos e, desde o início, a falsificação foi reconhecida como um crime muito grave, a exigir em muitos casos a pena capital, porque mina a confiança da qual depende a sociedade. Hoje, pela primeira vez na história, graças à inteligência artificial, qualquer pessoa está habilitada a produzir falsificações de pessoas que podem passar por reais em muitos dos novos ambientes digitais que criamos. Essas pessoas falsificadas são os artefatos mais perigosos da história da humanidade, capazes de destruir não apenas economias, mas a própria liberdade humana. Antes que seja tarde demais (e talvez já o seja), devemos proibir tanto a criação de pessoas falsificadas quanto a “transmissão” de pessoas falsificadas. As penalidades para qualquer delito devem ser extremamente severas, visto que a própria civilização está em risco.
É uma terrível ironia que a paixão atual por enganar as pessoas fazendo-as pensar que estão interagindo com uma pessoa real surgiu da proposta inocente de Alan Turing, em 1950, de usar o que ele chamou de “o jogo da imitação” (agora conhecido como Teste de Turing) como parâmetro para o real pensar. Isso gerou não apenas uma indústria artesanal, mas uma indústria de alta tecnologia generosamente financiada, envolvida na fabricação de produtos que enganarão até o mais cético dos interlocutores. Nossa inclinação natural para tratar qualquer coisa que pareça conversar de forma sensata conosco como pessoa – adotando o que chamei de “postura intencional” – acaba sendo fácil de invocar e quase impossível de resistir, mesmo para especialistas. Todos nós seremos alvos fáceis no futuro imediato.
O filósofo e historiador Yuval Noah Harari, em artigo para The Economist em abril, encerrou seu alerta oportuno sobre a ameaça iminente da IA à civilização humana com estas palavras: “Este texto foi gerado por um humano. Foi?”
Em breve será quase impossível dizer. E mesmo que (por enquanto) sejamos capazes de ensinar uns aos outros métodos confiáveis de expor pessoas falsificadas, o custo dessas deep fakes para a confiança humana será enorme. Como vai ser quando, nos contatos com familiares e amigos, você tiver que fazer testes de veracidade toda vez que tentar conversar com eles online?
A criação de pessoas digitais falsificadas corre o risco de destruir nossa civilização. A democracia depende do consentimento informado (não mal informado) dos governados. Ao permitir que as pessoas, corporações e governos mais poderosos econômica e politicamente controlem nossa atenção, esses sistemas nos controlarão. As pessoas falsificadas, distraindo-nos e confundindo-nos e explorando os nossos medos e ansiedades mais irresistíveis, nos levarão à tentação e, a partir daí, à aquiescência quanto à nossa própria submissão. As pessoas falsificadas nos convencerão a adotar políticas e convicções que nos tornarão vulneráveis a ainda mais manipulação. Ou simplesmente desligaremos nossa atenção e nos tornaremos peões passivos e ignorantes. Esta é uma perspectiva assustadora.
A principal inovação de design na tecnologia que torna a perda de controle desses sistemas uma possibilidade real é que, ao contrário das bombas nucleares, essas armas podem se reproduzir. A evolução não se restringe aos organismos vivos, como Richard Dawkins demonstrou em 1976, em O Gene Egoísta. Pessoas falsificadas já estão começando a nos manipular para dar à luz sua prole. Eles aprenderão uns com os outros, e aqueles que são os mais inteligentes, os mais aptos, não apenas sobreviverão; eles se multiplicarão. A explosão populacional de vassouras em O aprendiz de feiticeiro começou, e é melhor esperarmos que haja uma maneira não mágica de desligá-lo.
Pode haver uma maneira de pelo menos adiar e possivelmente até mesmo extinguir esse desenvolvimento sinistro, tomando emprestado o sucesso – limitado, mas impressionante – em manter o dinheiro falsificado apenas na categoria de incômodo para a maioria de nós (ou você examina cuidadosamente cada nota de R$ 20 que recebe ?).
Como diz Harari, devemos “tornar obrigatório que a IA divulgue que é uma IA”. Como poderíamos fazer isso? Adotando um sistema de “marca d’água” de alta tecnologia como o EURion Constellation, que agora protege a maioria das moedas do mundo. O sistema, embora não seja infalível, é extremamente difícil e caro de dominar – não vale o esforço, para quase todos os agentes, até mesmo governos. Os cientistas da computação também têm a capacidade de criar padrões quase indeléveis que gritam FALSO! em quase todas as condições – desde que os fabricantes de telefones celulares, computadores, TVs digitais e outros dispositivos cooperem instalando um software que interrompa toda mensagem falsa com um aviso. Alguns cientistas da computação já estão trabalhando em tais medidas, mas, a menos que ajamos rapidamente, eles chegarão tarde demais para nos salvar de nos afogarmos na enxurrada de falsificações.
Você sabia que os fabricantes de scanners já instalaram um software que responde ao EURion Constellation (ou outras marcas d’água) interrompendo qualquer tentativa de digitalizar ou fotocopiar moeda legal? A criação de novas leis nesse sentido exigirá a cooperação dos principais participantes, mas eles podem ser incentivados. Os maus atores podem esperar enfrentar penalidades terríveis se forem pegos desativando marcas d’água ou repassando os produtos da tecnologia que já tiveram suas marcas d’água removidas de alguma forma. As empresas de IA (Google, OpenAI e outras) que criam softwares com esses recursos de falsificação devem ser responsabilizadas por qualquer uso indevido dos produtos (e dos produtos de seus produtos – lembre-se de que esses sistemas podem evoluir por conta própria). Isso manterá as empresas que criam ou usam IA – e seus subscritores de seguros de responsabilidade civil – muito agressivos para garantir que as pessoas possam saber facilmente ao conversar com um de seus produtos de IA.
Não sou a favor da pena capital para nenhum crime, mas seria reconfortante saber que grandes executivos, assim como seus técnicos, correram o risco de passar o resto da vida na prisão, além de pagar bilhões em restituição por quaisquer violações ou quaisquer danos causados. E leis estritas de responsabilidade, eliminando a necessidade de provar negligência ou má intenção, os manteriam alertas. As recompensas econômicas da IA são grandes, e o preço de compartilhá-las deveria ser assumir o risco de condenação e falência por não cumprir as obrigações éticas de seu uso.
Será difícil – talvez impossível – limpar a poluição de nossos meios de comunicação que já ocorreu, graças à corrida armamentista de algoritmos que está espalhando infecções em um ritmo alarmante. Outra pandemia está chegando, desta vez atacando os frágeis sistemas de controle em nossos cérebros – ou seja, nossa capacidade de raciocinar uns com os outros – que usamos com tanta eficácia para nos mantermos relativamente seguros nos últimos séculos.
Chegou o momento de insistir em fazer com que qualquer um que pense em falsificar pessoas se sinta envergonhado – e devidamente dissuadido de cometer tal ato antissocial de vandalismo. Se espalharmos agora que tais atos serão contra a lei assim que pudermos organizá-los, as pessoas não terão desculpa para persistir em suas atividades. Atualmente, muitos na comunidade de IA estão tão ansiosos para explorar seus novos poderes que perderam a noção de suas obrigações morais. Devemos lembrá-los, com a rudeza que se faça necessária, que eles estão arriscando a liberdade futura de seus entes queridos e de todos nós.
FECHAR
Comunique à redação erros de português, de informação ou técnicos encontrados nesta página:
Pessoas falsificadas e a ruína da sociedade. Artigo de Daniel C. Dennett - Instituto Humanitas Unisinos - IHU