• Início
  • Sobre o IHU
    • Gênese, missão e rotas
    • Sala Ignacio Ellacuría e Companheiros
    • Rede SJ-Cias
      • CCIAS
      • CEPAT
  • Programas
    • Observasinos
    • Teologia Pública
    • IHU Fronteiras
    • Repensando a Economia
    • Sociedade Sustentável
  • Notícias
    • Mais notícias
    • Entrevistas
    • Páginas especiais
    • Jornalismo Experimental
    • IHUCAST
  • Publicações
    • Mais publicações
    • Revista IHU On-Line
  • Eventos
  • Espiritualidade
    • Comentário do Evangelho
    • Ministério da palavra na voz das Mulheres
    • Orações Inter-Religiosas Ilustradas
    • Martirológio Latino-Americano
    • Sínodo Pan-Amazônico
    • Mulheres na Igreja
  • Contato
close
search
  • Início
  • Sobre o IHU
    • Gênese, missão e rotas
    • Sala Ignacio Ellacuría e Companheiros
    • Rede SJ-Cias
      • CCIAS
      • CEPAT
  • Programas
    • Observasinos
    • Teologia Pública
    • IHU Fronteiras
    • Repensando a Economia
    • Sociedade Sustentável
  • Notícias
    • Mais notícias
    • Entrevistas
    • Páginas especiais
    • Jornalismo Experimental
    • IHUCAST
  • Publicações
    • Mais publicações
    • Revista IHU On-Line
  • Eventos
  • Espiritualidade
    • Comentário do Evangelho
    • Ministério da palavra na voz das Mulheres
    • Orações Inter-Religiosas Ilustradas
    • Martirológio Latino-Americano
    • Sínodo Pan-Amazônico
    • Mulheres na Igreja
  • Contato
search

##TWEET

Tweet

“Papagaios estocásticos”: o pedido de moratória para a IA e os riscos em jogo

Mais Lidos

  • A herança crioula do Papa Leão XIV destaca a complexa história do racismo e da Igreja nos Estados Unidos

    LER MAIS
  • Guerrilheiro, refém, presidente, filósofo: a imensa vida de Pepe Mujica

    LER MAIS
  • O fascismo do fim dos tempos – e o refúgio dos bilionários. Artigo de Naomi Klein e Astra Taylor

    LER MAIS

Vídeos IHU

  • play_circle_outline

    MPVM - 4º domingo de Páscoa – Ano C – A missão de cuidar da vida e cuidar da humanidade

close

FECHAR

Image

COMPARTILHAR

  • FACEBOOK

  • X

  • IMPRIMIR PDF

  • WHATSAPP

close CANCELAR

share

03 Abril 2023

Os danos da chamada inteligência artificial são reais e presentes, e decorrem dos atos de pessoas e corporações que implantam sistemas automatizados. Os esforços regulatórios devem se concentrar na transparência, na responsabilização e na prevenção de práticas trabalhistas exploradoras.

A opinião é Timnit Gebru, Emily M. Bender, Angelina McMillan-Major, Margaret Mitchell, pesquisadoras em Ciências da Computação e Linguística Computacional, autoras de um recente artigo acadêmico sobre “os perigos dos papagaios estocásticos” [stochastic parrots].

O conceito se refere ao fato de que inteligências artificiais como o ChatGPT escolhem a próxima palavra que irão utilizar em uma resposta a partir de um estoque gigantesco de frases disponíveis nos bancos de dados digitais, sem qualquer ideia do contexto em que são proferidas.

O artigo foi publicado no sítio do Distributed AI Research Institute (DAIR), 31-03-2023. A tradução é de Moisés Sbardelotto.

Eis o texto.

Na terça-feira, 28 de março, o instituto Future of Life publicou uma carta pedindo uma moratória mínima de seis meses para o “treinamento de sistemas de inteligência artificial mais poderosos do que o GPT-4”, assinada por mais de 2.000 pessoas, incluindo Yoshua Bengio, vencedor do prêmio Turing, e Elon Musk, um dos homens mais ricos do mundo.

Embora haja uma série de recomendações na carta com as quais concordamos (e que propusemos em nosso artigo revisado por pares publicado em 2021, conhecido informalmente como “Stochastic Parrots”), como os “sistemas de proveniência e de marca d’água para ajudar a distinguir mídias reais de sintéticas”, elas são ofuscadas pelo alarmismo e pelo hype [modismo] em torno da inteligência artificial, que direciona o discurso para os riscos de supostas “mentes digitais poderosas” com “inteligência humana competitiva”.

Esses riscos hipotéticos são o foco de uma ideologia perigosa chamada de longo-prazismo [longtermism], que ignora os danos reais resultantes da implantação de sistemas de inteligência artificial já hoje.

A carta não aborda nenhum dos danos em curso provocados por esses sistemas, incluindo:

1) exploração de trabalhadores e roubo maciço de dados para criar produtos que lucram com um punhado de entidades,

2) a explosão de mídias sintéticas no mundo, que reproduzem sistemas de opressão e também põem em perigo nosso ecossistema de informações e

3) a concentração de poder nas mãos de poucas pessoas, o que exacerba as desigualdades sociais.

Embora não nos surpreendamos ao ver esse tipo de carta de uma organização longo-prazista como o instituto Future of Life – que, de modo geral, está alinhado com uma visão de futuro em que nos tornamos pós-humanos radicalmente aprimorados, colonizamos o espaço e criamos trilhões de pessoas digitais –, estamos consternadas ao ver o número de profissionais da computação que assinaram essa carta e a cobertura midiática positiva que ela recebeu.

É perigoso nos distrairmos com uma fantasia utópica ou apocalíptica possibilitada pela inteligência artificial, que promete ou um futuro “florescente” ou um futuro “potencialmente catastrófico” [1]. Essa linguagem que infla as capacidades dos sistemas automatizados e os antropomorfiza, como observamos em “Stochastic Parrots”, engana as pessoas fazendo-as pensar que existe um ser senciente por trás das mídias sintéticas.

Isso não apenas seduz as pessoas a confiarem acriticamente nos outputs de sistemas como o ChatGPT, mas também atribui erroneamente a capacidade de agência. A responsabilização propriamente dita não cabe aos artefatos, mas sim a seus construtores.

O que precisamos é de regulamentação que imponha transparência. Isso não apenas deve ficar sempre claro quando nos deparamos com mídias sintéticas, mas as organizações que constroem esses sistemas também deveriam ser obrigadas a documentar e a divulgar os dados de treinamento e as arquiteturas de modelo.

O ônus de criar instrumentos que sejam seguros de usar deveria recair sobre as empresas que constroem e implantam sistemas generativos, o que significa que os construtores desses sistemas deveriam ser responsabilizados pelos resultados produzidos por seus produtos.

Embora concordemos que “tais decisões não devem ser delegadas a líderes tecnológicos não eleitos”, também observamos que tais decisões não deveriam caber aos acadêmicos que estão experimentando um “verão da inteligência artificial”, financeiramente muito vinculados com o Vale do Silício.

Os mais afetados pelos sistemas de inteligência artificial – os imigrantes que são submetidos a “muros de fronteira digital”, as mulheres que são forçadas a usar roupas específicas [as autoras se referem ao uso do hijab no Irã], os trabalhadores que experimentam transtorno de estresse pós-traumático ao filtrarem resultados de sistemas generativos, os artistas que veem seu trabalho roubado para gerar lucro a corporações, e os trabalhadores gig que lutam para pagar suas contas – devem ter uma palavra a dizer nessa conversa.

Ao contrário da narrativa da carta de que devemos nos “adaptar” a um futuro tecnológico aparentemente pré-determinado e lidar “com as dramáticas disrupções econômicas e políticas (especialmente para a democracia) que a inteligência artificial causará”, não concordamos que o nosso papel seja nos ajustarmos às prioridades de alguns poucos indivíduos privilegiados e àquilo que eles decidem construir e proliferar.

Nós deveríamos estar construindo máquinas que trabalhem para nós, em vez de “adaptar” a sociedade para ser legível e gravável por máquinas. A corrida atual rumo a “experimentos de inteligência artificial” cada vez maiores não é um caminho pré-determinado no qual a nossa única escolha é o quão rápido devemos correr, mas sim um conjunto de decisões impulsionadas pelo lucro.

As ações e as escolhas das corporações devem ser moldadas pela regulamentação que protege os direitos e os interesses das pessoas.

De fato, é hora de agir: mas o foco da nossa preocupação não deveriam ser “mentes digitais poderosas” imaginárias. Ao invés disso, deveríamos nos focar nas práticas de exploração muito reais e muito presentes das empresas que afirmam construí-las, que estão rapidamente centralizando o poder e aumentando as desigualdades sociais.

Nota:

1. Ressaltamos que a eugenia, uma prática muito real e prejudicial com raízes no século XIX e que continua até hoje, está listada na nota de rodapé número 5 da carta como um exemplo de algo que também é apenas “potencialmente catastrófico”.

Ciclo de Estudos Inteligência Artificial, fronteiras tecnológicas e devires humanos

Leia mais

  • Não é possível pausar o desenvolvimento de inteligência artificial, dizem especialistas
  • Peritos em inteligência artificial pedem uma pausa de seis meses para a "corrida fora de controle" do ChatGPT
  • O segredo sujo da inteligência artificial
  • Inteligência artificial para construir outros mundos
  • Bostificação, o futuro irresistível do ChatGPT
  • Chapação maquínica, alucinação estatística: pensar como o ChatGPT
  • Chomsky e o melodrama tecnofóbico. Artigo de Bruno Cava
  • ChatGPT, tecnologia e programadores. E o bicho-papão da automação
  • ChatGPT, o algoritmo que finge saber. Comentário de Bruno Cava
  • GPT-4, o algoritmo inexplicável e fechado. Artigo de Paolo Benanti
  • O homem tecnológico: protagonista ou vítima?
  • O que Noam Chomsky pensa a respeito da Inteligência Artificial do ChatGPT
  • As cinco perguntas sobre o sucesso do ChatGPT
  • ChatGPT: nem monstro, nem tábua de salvação
  • Castells: o que (não) penso sobre o ChatGPT
  • ChatGPT: entenda como funciona a inteligência artificial do momento - e os riscos que ela traz
  • ChatGPT. “Apesar da IA, ainda temos o monopólio da consciência”
  • O GPT-3 desafia a inércia acadêmica
  • Biopolítica algorítmica. Como as humanidades são impactadas e podem impactar a Inteligência Artificial. Entrevista especial com Virgilio Almeida
  • Inteligência Artificial e Saúde: para todos ou para quase ninguém?
  • Inteligência artificial democrática: software em vez da política? Artigo de Paolo Benanti
  • “A inteligência artificial está se tornando senciente”, avisa engenheiro do Google. E Big G o suspende
  • Dar uma ética à inteligência artificial: um desafio contado em livro
  • A inteligência artificial não precisa de inteligência: o pensamento de Luciano Floridi
  • “Ética da inteligência artificial”, novo livro de Luciano Floridi
  • A necessidade de uma algorética para enfrentar o desafio da inteligência artificial. Artigo de Paolo Benanti
  • É possível confiar na inteligência artificial?
  • A inteligência artificial pode nos ensinar a ser mais humanos?
  • Machine Intelligence: a inteligência artificial e a espionagem. Artigo de Paolo Benanti
  • Inteligência Artificial no Sul Global. Alguns comentários a Jack Qiu
  • “A inteligência artificial já faz parte da nossa cotidianidade.” Entrevista com Luciano Floridi

Notícias relacionadas

  • Un marco de justicia económica para el debate tecnológico

    En la entrevista con Evgeny Morozov, se visualizó el contexto del desarrollo de las tecnologías digitales y sus implicaciones so[...]

    LER MAIS
  • 60% dos jovens estão aprendendo profissões que a AI vai ocupar em menos de 20 anos

    LER MAIS
  • Hora de se reconectar: na era da inteligência artificial, é preciso ressaltar as virtudes humanas

    LER MAIS
  • “Facebook e Apple poderão ter o controle que a KGB nunca teve sobre os cidadãos”

    O historiador Yuval Noah Harari, um dos pensadores do momento, reflete sobre como a inteligência artificial e o ‘big data’ tr[...]

    LER MAIS
  • Início
  • Sobre o IHU
    • Gênese, missão e rotas
    • Sala Ignacio Ellacuría e Companheiros
    • Rede SJ-Cias
      • CCIAS
      • CEPAT
  • Programas
    • Observasinos
    • Teologia Pública
    • IHU Fronteiras
    • Repensando a Economia
    • Sociedade Sustentável
  • Notícias
    • Mais notícias
    • Entrevistas
    • Páginas especiais
    • Jornalismo Experimental
    • IHUCAST
  • Publicações
    • Mais publicações
    • Revista IHU On-Line
  • Eventos
  • Espiritualidade
    • Comentário do Evangelho
    • Ministério da palavra na voz das Mulheres
    • Orações Inter-Religiosas Ilustradas
    • Martirológio Latino-Americano
    • Sínodo Pan-Amazônico
    • Mulheres na Igreja
  • Contato

Av. Unisinos, 950 - São Leopoldo - RS
CEP 93.022-750
Fone: +55 51 3590-8213
humanitas@unisinos.br
Copyright © 2016 - IHU - Todos direitos reservados