Inteligência artificial: o poder e o valor das pessoas e das máquinas. Artigo de Paolo Benanti

Mais Lidos

  • Lula, sua última eleição e seus demônios. Artigo de Antonio Martins

    LER MAIS
  • Vozes de Emaús: Movimento Fé e Política faz história. Artigo de Frei Betto e Claudio Ribeiro

    LER MAIS
  • Parte do Sul Global, incluindo o Brasil, defende que países desenvolvidos abandonem os combustíveis fósseis primeiro. Para Martí Orta, não há espaço para ritmos nacionais distintos na eliminação de petróleo, gás e carvão. O pesquisador afirma que a abertura de novos projetos de exploração ignora os limites definidos pela ciência

    Cancelar contratos fósseis. Não ‘há tempo’ para transição em diferentes velocidades. Entrevista com Martí Orta

    LER MAIS

Revista ihu on-line

Natal. A poesia mística do Menino Deus no Brasil profundo

Edição: 558

Leia mais

O veneno automático e infinito do ódio e suas atualizações no século XXI

Edição: 557

Leia mais

Um caleidoscópio chamado Rio Grande do Sul

Edição: 556

Leia mais

31 Março 2023

Se a máquina vale em sentido econômico, o ser humano tem um valor que não é mensurável nem em valores numéricos de dados nem em valores econômicos em uma balança.

O comentário é de Paolo Benanti, frei franciscano da Terceira Ordem Regular, professor da Pontifícia Universidade Gregoriana, de Roma, e acadêmico da Pontifícia Academia para a Vida. Em português, é autor de “Oráculos: entre ética e governança dos algoritmos” (Unisinos, 2020).

O artigo foi publicado por Avvenire, 30-03-2023. A tradução é de Moisés Sbardelotto.

Eis o texto.

O mundo das inteligências artificiais (IA) está em agitação. Na semana passada, a OpenAi, líder nesse setor, revelou à humanidade inteira a sua mais recente criação: GPT-4. Um produto com uma sigla incompreensível, mas que, em pouquíssimo tempo, encheu as colunas dos jornais e as páginas dos blogs.

Os resultados obtidos na OpenAi são, sem dúvida, surpreendentes. Se lermos o documento técnico que foi publicado no momento do lançamento, veremos capacidades inimagináveis. O GPT-4 pode partir de uma pergunta textual associada a uma imagem, mostra que sabe reconhecer o que está na imagem e unir os diversos elementos em um quadro de sentido: resolver um problema matemático ou responder ao que há de estranho em uma foto.

O GPT-4 aceita solicitações que consistem tanto em imagens quanto em texto, o que – paralelamente à configuração somente de texto – permite ao usuário especificar qualquer tarefa de visão ou de linguagem.

Em particular, o modelo gera outputs de texto com dados de input constituídos por texto e imagens entrelaçados arbitrariamente. Em uma série de domínios – incluindo documentos com texto e fotografias, diagramas ou capturas de tela – o GPT-4 mostra capacidades semelhantes aos dos inputs somente de texto.

Temos um modelo que, figurativamente, une “audição”, no sentido de que ele ouve o nosso pedido escrito, e “visão”, mostrando uma “percepção artificial” de uma imagem. O mais surpreendente é que o GPT-4 pode fazer coisas que os pesquisadores não esperavam que ele soubesse fazer.

Ainda no documento citado lemos:

“Muitas vezes surgem novas capacidades nos modelos mais poderosos. Alguns deles são particularmente interessantes: a capacidade de criar e agir em planos de longo prazo, de acumular poder e recursos (‘busca de poder’) e de exibir um comportamento que é cada vez mais ‘agêntico’ [agentic]. Nesse contexto, ‘agêntico’ não se refere à humanização dos modelos de linguagem ou à senciência, mas sim a sistemas caracterizados pela capacidade, por exemplo, de alcançar objetivos que podem não ter sido concretamente especificados e que não apareceram no treinamento, pelo foco em alcançar objetivos específicos e quantificáveis, e por fazer planos de longo prazo”.

Se olharmos para a fonte citada nas notas ao texto, lemos, sem meias palavras: “Usamos o termo ‘agência’ para sublinhar o fato cada vez mais evidente de que os sistemas de ML [machine learning] não estão completamente sob o controle humano”.

Portanto, os pesquisadores se dão conta de que o próprio modo como treinaram o sistema – não apenas utilizando dados, mas também premiando algumas respostas e punindo outras mediante interação com humanos e o uso de modelos de recompensa baseados em regras – transmite ao modelo dois elementos: a capacidade de adotar estratégias de longo prazo e a busca de poder e recursos em sua interação com o input.

Os engenheiros que desenvolveram o GPT-4 nos dizem que o sistema poderia ter seu próprio “plano interno e poderia agir para adquirir os recursos e os modos para alcançá-lo”.

Tudo isso não porque ele seja uma espécie de gênio do mal, mas provavelmente porque, na aprendizagem por reforço, os treinadores, ao “premiarem” ou “punirem” o GPT-4 emitem juízos, e estes nunca são construídos apenas sobre uma coisa em si mesma, mas sobre uma coisa em mérito a um fim.

Intuitivamente, podemos pensar que o sistema incorpora esses “microfragmentos” de finalidade das avaliações no processo de reforço, fazendo emergir uma finalidade global de uma maneira análoga àquela com que faz emergir informações a partir dos dados.

Se é isso que sabemos sobre o GPT-4, o Google, com seu PaLM – um sistema do mesmo tipo –, parece ter alcançado resultados ainda mais poderosos e surpreendentes, a ponto de atrasar seu lançamento público por medo dos efeitos.

Mas quanto vale tudo isso? De um ponto de vista comercial, muitíssimo. A Microsoft, depois de adquirir as licenças do sistema, está lançando uma série de produtos nos quais o GPT-4 ajudará o usuário a fazer suas tarefas. Ele chama esses sistemas de Copilot.

Devemos nos acostumar com a ideia de uma transformação abrangente do trabalho, em que teremos um copiloto que nos orienta e nos auxilia em todos os âmbitos da vida? Para além dos problemas sociais, a pergunta que surge, então, é quanto vale o ser humano nesta nova época caracterizada pelas inteligências artificiais.

Essa pergunta foi respondida nos últimos dias pelo Papa Francisco, que, ao falar aos participantes dos Minerva Dialogues – uma mesa de debate na qual estão presentes muitos atores de primeiro plano desse mundo – disse:

“O conceito de dignidade humana – este é o centro – nos impõe que reconheçamos e respeitemos o fato de que o valor fundamental de uma pessoa não pode ser medido por um conjunto de dados. [...] Não podemos permitir que os algoritmos limitem ou condicionem o respeito pela dignidade humana, nem que excluam a compaixão, a misericórdia, o perdão e, sobretudo, a abertura à esperança de uma mudança da pessoa.”

Se a máquina vale em sentido econômico, o ser humano tem um valor que não é mensurável nem em valores numéricos de dados nem em valores econômicos em uma balança.

A dignidade humana, no centro da algorética, pergunta-nos quais relações e qual sociedade queremos.

Ciclo de Estudos Inteligência Artificial, fronteiras tecnológicas e devires humanos

Leia mais