03 Abril 2023
Os danos da chamada inteligência artificial são reais e presentes, e decorrem dos atos de pessoas e corporações que implantam sistemas automatizados. Os esforços regulatórios devem se concentrar na transparência, na responsabilização e na prevenção de práticas trabalhistas exploradoras.
A opinião é Timnit Gebru, Emily M. Bender, Angelina McMillan-Major, Margaret Mitchell, pesquisadoras em Ciências da Computação e Linguística Computacional, autoras de um recente artigo acadêmico sobre “os perigos dos papagaios estocásticos” [stochastic parrots].
O conceito se refere ao fato de que inteligências artificiais como o ChatGPT escolhem a próxima palavra que irão utilizar em uma resposta a partir de um estoque gigantesco de frases disponíveis nos bancos de dados digitais, sem qualquer ideia do contexto em que são proferidas.
O artigo foi publicado no sítio do Distributed AI Research Institute (DAIR), 31-03-2023. A tradução é de Moisés Sbardelotto.
Na terça-feira, 28 de março, o instituto Future of Life publicou uma carta pedindo uma moratória mínima de seis meses para o “treinamento de sistemas de inteligência artificial mais poderosos do que o GPT-4”, assinada por mais de 2.000 pessoas, incluindo Yoshua Bengio, vencedor do prêmio Turing, e Elon Musk, um dos homens mais ricos do mundo.
Embora haja uma série de recomendações na carta com as quais concordamos (e que propusemos em nosso artigo revisado por pares publicado em 2021, conhecido informalmente como “Stochastic Parrots”), como os “sistemas de proveniência e de marca d’água para ajudar a distinguir mídias reais de sintéticas”, elas são ofuscadas pelo alarmismo e pelo hype [modismo] em torno da inteligência artificial, que direciona o discurso para os riscos de supostas “mentes digitais poderosas” com “inteligência humana competitiva”.
Esses riscos hipotéticos são o foco de uma ideologia perigosa chamada de longo-prazismo [longtermism], que ignora os danos reais resultantes da implantação de sistemas de inteligência artificial já hoje.
A carta não aborda nenhum dos danos em curso provocados por esses sistemas, incluindo:
1) exploração de trabalhadores e roubo maciço de dados para criar produtos que lucram com um punhado de entidades,
2) a explosão de mídias sintéticas no mundo, que reproduzem sistemas de opressão e também põem em perigo nosso ecossistema de informações e
3) a concentração de poder nas mãos de poucas pessoas, o que exacerba as desigualdades sociais.
Embora não nos surpreendamos ao ver esse tipo de carta de uma organização longo-prazista como o instituto Future of Life – que, de modo geral, está alinhado com uma visão de futuro em que nos tornamos pós-humanos radicalmente aprimorados, colonizamos o espaço e criamos trilhões de pessoas digitais –, estamos consternadas ao ver o número de profissionais da computação que assinaram essa carta e a cobertura midiática positiva que ela recebeu.
É perigoso nos distrairmos com uma fantasia utópica ou apocalíptica possibilitada pela inteligência artificial, que promete ou um futuro “florescente” ou um futuro “potencialmente catastrófico” [1]. Essa linguagem que infla as capacidades dos sistemas automatizados e os antropomorfiza, como observamos em “Stochastic Parrots”, engana as pessoas fazendo-as pensar que existe um ser senciente por trás das mídias sintéticas.
Isso não apenas seduz as pessoas a confiarem acriticamente nos outputs de sistemas como o ChatGPT, mas também atribui erroneamente a capacidade de agência. A responsabilização propriamente dita não cabe aos artefatos, mas sim a seus construtores.
O que precisamos é de regulamentação que imponha transparência. Isso não apenas deve ficar sempre claro quando nos deparamos com mídias sintéticas, mas as organizações que constroem esses sistemas também deveriam ser obrigadas a documentar e a divulgar os dados de treinamento e as arquiteturas de modelo.
O ônus de criar instrumentos que sejam seguros de usar deveria recair sobre as empresas que constroem e implantam sistemas generativos, o que significa que os construtores desses sistemas deveriam ser responsabilizados pelos resultados produzidos por seus produtos.
Embora concordemos que “tais decisões não devem ser delegadas a líderes tecnológicos não eleitos”, também observamos que tais decisões não deveriam caber aos acadêmicos que estão experimentando um “verão da inteligência artificial”, financeiramente muito vinculados com o Vale do Silício.
Os mais afetados pelos sistemas de inteligência artificial – os imigrantes que são submetidos a “muros de fronteira digital”, as mulheres que são forçadas a usar roupas específicas [as autoras se referem ao uso do hijab no Irã], os trabalhadores que experimentam transtorno de estresse pós-traumático ao filtrarem resultados de sistemas generativos, os artistas que veem seu trabalho roubado para gerar lucro a corporações, e os trabalhadores gig que lutam para pagar suas contas – devem ter uma palavra a dizer nessa conversa.
Ao contrário da narrativa da carta de que devemos nos “adaptar” a um futuro tecnológico aparentemente pré-determinado e lidar “com as dramáticas disrupções econômicas e políticas (especialmente para a democracia) que a inteligência artificial causará”, não concordamos que o nosso papel seja nos ajustarmos às prioridades de alguns poucos indivíduos privilegiados e àquilo que eles decidem construir e proliferar.
Nós deveríamos estar construindo máquinas que trabalhem para nós, em vez de “adaptar” a sociedade para ser legível e gravável por máquinas. A corrida atual rumo a “experimentos de inteligência artificial” cada vez maiores não é um caminho pré-determinado no qual a nossa única escolha é o quão rápido devemos correr, mas sim um conjunto de decisões impulsionadas pelo lucro.
As ações e as escolhas das corporações devem ser moldadas pela regulamentação que protege os direitos e os interesses das pessoas.
De fato, é hora de agir: mas o foco da nossa preocupação não deveriam ser “mentes digitais poderosas” imaginárias. Ao invés disso, deveríamos nos focar nas práticas de exploração muito reais e muito presentes das empresas que afirmam construí-las, que estão rapidamente centralizando o poder e aumentando as desigualdades sociais.
1. Ressaltamos que a eugenia, uma prática muito real e prejudicial com raízes no século XIX e que continua até hoje, está listada na nota de rodapé número 5 da carta como um exemplo de algo que também é apenas “potencialmente catastrófico”.
FECHAR
Comunique à redação erros de português, de informação ou técnicos encontrados nesta página:
“Papagaios estocásticos”: o pedido de moratória para a IA e os riscos em jogo - Instituto Humanitas Unisinos - IHU