Os principais criadores da IA alertam para o “perigo de extinção” que esta tecnologia representa para a humanidade

Mais Lidos

  • “Passamos da etapa do aquecimento, estamos em uma emergência climática ou de ebulição global”. Entrevista com Paulo Artaxo

    LER MAIS
  • Milhares de pessoas foram resgatadas de trabalho escravo contemporâneo em 2023 no Brasil. Entrevista com Frei Xavier Plassat

    LER MAIS
  • Um histórico encontro de oração entre protestantes, ortodoxos e católicos na Roma papal

    LER MAIS

Newsletter IHU

Fique atualizado das Notícias do Dia, inscreva-se na newsletter do IHU


Revista ihu on-line

Zooliteratura. A virada animal e vegetal contra o antropocentrismo

Edição: 552

Leia mais

Modernismos. A fratura entre a modernidade artística e social no Brasil

Edição: 551

Leia mais

Metaverso. A experiência humana sob outros horizontes

Edição: 550

Leia mais

31 Mai 2023

Uma carta aberta assinada pelos líderes da OpenAI, Google DeepMind e Anthropic compara esta tecnologia à pandemia ou guerra nuclear.

A reportagem é publicada por El País, 30-05-2023.

A inteligência artificial (IA) representa um “risco de extinção” para a humanidade, assim como catástrofes como uma guerra nuclear ou uma pandemia. Essas são as conclusões de um grupo de 350 executivos, pesquisadores e engenheiros especialistas nessa tecnologia em uma carta aberta de 22 palavras publicada na terça-feira pela organização sem fins lucrativos Center for AI Security. “Mitigar o risco de extinção [para a humanidade] da IA ​​deve ser uma prioridade global junto com outros riscos em escala social, como pandemias e guerra nuclear”, ele cita a declaração que foi assinada, entre outros, pelo alto- executivos de classificação de três grandes empresas de IA: Sam Altman (CEO da OpenAI), Demis Hassabis (Google DeepMind) e Dario Amodei (Anthropic).

Também entre os signatários estão os pesquisadores Geoffrey Hinton e Yoshua Bengio, que são frequentemente considerados padrinhos do movimento moderno de IA. Hinton deixou o Google há algumas semanas, onde ocupou a vice-presidência, por acreditar que essa tecnologia pode levar ao fim da civilização em questão de anos, como confessou ao EL PAÍS.

A declaração vem em um momento de crescente preocupação com uma indústria em rápido desenvolvimento e difícil de controlar. O próprio Sam Altman já havia se manifestado sobre o assunto durante sua aparição no Senado dos EUA, quando reconheceu a importância de regulamentar a inteligência artificial generativa. “Meu maior medo é que essa tecnologia dê errado. E se der errado, pode dar muito errado”, disse ele há apenas duas semanas, durante a primeira audiência sobre IA realizada no Capitólio.

O pai da OpenAI – a empresa que desenvolveu o ChatGPT, o programa de inteligência artificial mais popular e poderoso da área – acrescentou que entendia que “as pessoas estão ansiosas sobre como [IA] pode mudar a maneira como vivemos” e que, por isso, Por isso, é necessário "trabalhar em conjunto para identificar e gerir as possíveis desvantagens para que todos possamos usufruir das enormes vantagens". Não foi a primeira vez que um dos empresários mais envolvidos com essa tecnologia fez declarações dessa magnitude sobre o futuro da IA.

Em março, mais de mil intelectuais, pesquisadores e empresários haviam assinado outra carta aberta na qual pediam a suspensão por “pelo menos seis meses do desenvolvimento de sistemas de IA mais poderosos que o GPT4”, a última versão do ChatGPT. Na carta, os signatários alertam que a ferramenta OpenAI já é capaz de competir com humanos em um número cada vez maior de tarefas, podendo ser usada para destruir empregos e espalhar desinformação. “Infelizmente, esse nível de planejamento e gerenciamento não está acontecendo, apesar do fato de que nos últimos meses os laboratórios de IA entraram em uma corrida desenfreada para desenvolver e implantar mentes digitais cada vez mais poderosas do que qualquer um, nem mesmo seus criadores, eles podem entender, prever com segurança ou controle”, dizia a carta, que também foi assinada pelo magnata Elon Musk, fundador da Tesla e da SpaceX e dono do Twitter, que também é um dos fundadores da OpenAI.

Outra voz de alarme neste campo foi a do britânico Geoffrey Hinton, que no início de maio deixou seu emprego no Google para poder alertar com mais liberdade sobre os perigos dessas novas tecnologias. “Pelo que sabemos até agora sobre o funcionamento do cérebro humano, nosso processo de aprendizagem é provavelmente menos eficiente que o dos computadores”, confessou ao EL PAÍS algumas semanas atrás. Hinton garantiu na mesma entrevista que faltam “cinco a 20 anos” para a inteligência artificial superar a inteligência humana. “Nosso cérebro é fruto da evolução e tem uma série de objetivos integrados, como não machucar o corpo, daí a noção de dano; coma bastante, daí a fome; e fazer tantas cópias de nós mesmos quanto possível, daí o desejo sexual. As inteligências sintéticas, por outro lado, não evoluíram: nós as construímos. Portanto, eles não vêm necessariamente com objetivos inatos. Portanto, a grande questão é: podemos garantir que eles tenham objetivos que nos beneficiem?", disse ele.

Leia mais 

Comunicar erro

close

FECHAR

Comunicar erro.

Comunique à redação erros de português, de informação ou técnicos encontrados nesta página:

Os principais criadores da IA alertam para o “perigo de extinção” que esta tecnologia representa para a humanidade - Instituto Humanitas Unisinos - IHU