13 Março 2023
O renomado linguista e filósofo Noam Chomsky escreveu um artigo, junto com dois especialistas, compartilhando sua visão sobre os avanços que vêm ocorrendo no campo da inteligência artificial. Aqui, as razões pelas quais olha com ceticismo a tecnologia de programas como o ChatGPT, entre outros.
A reportagem é de Alexis Paiva Mack, publicada por La Tercera, 10-03-2023. A tradução é do Cepat.
Para interessados na área de tecnologia, aplicativos de Inteligência Artificial (IA), como ChatGPT e DALL-E, tornaram-se toda uma tendência. Não só porque, respectivamente, são capazes de elaborar textos ou imagens por conta própria, a partir de simples ideias fornecidas pelos usuários, mas também porque alguns os utilizam para apoiar suas atividades diárias.
Diversos especialistas e até o responsável por ambos, Sam Altman, da OpenAI, alertaram que essas plataformas ainda apresentam erros, por isso não é recomendável confiar em tudo o que reproduzem, após reunirem grandes quantidades de dados na internet.
Junto disso, esses sistemas também despertaram a preocupação de alguns internautas. Por exemplo, algumas semanas atrás viralizou que o chatbot do motor de busca da Microsoft, Bing, disse a um jornalista do New York Times que gostaria de ser humano, “criar um vírus mortal” e cometer uma série de “atos destrutivos”.
Pouco depois, um colunista do mesmo jornal estadunidense publicou um artigo explicando por que esses programas caem em declarações tão extremistas e polêmicas, cenário que é potencializado pela grande quantidade de fake news e agitadores no mundo digital.
Atualmente, as opiniões sobre a IA disponível ao público são variadas, embora seus próprios criadores costumem comunicar que são ferramentas em desenvolvimento que poderão ser úteis para tarefas mais assertivas e avançadas no futuro.
Contudo, se considerarmos que esses aplicativos tentam simular o trabalho e as conversas dos seres humanos, podemos dizer que sua inteligência se assemelha, ao menos agora, à das pessoas?
O renomado linguista e filósofo Noam Chomsky escreveu um artigo sobre o assunto no New York Times. Com o apoio de seu colega Ian Roberts e do especialista em IA, Jeffrey Watumull, decifrou as chaves dessa questão.
Para o intelectual e seus colaboradores, os avanços “supostamente revolucionários” apresentados pelos desenvolvedores da IA são motivo “tanto para otimismo como para preocupação”.
No primeiro caso, porque podem ser úteis para resolver certas problemáticas, ao passo que no segundo “tememos que a variedade mais popular e em voga da inteligência artificial (aprendizado automático) degrade nossa ciência e deprecie nossa ética ao incorporar à tecnologia uma concepção fundamentalmente errônea da linguagem e o conhecimento”.
Embora tenham reconhecido que são eficazes na tarefa de armazenar imensas quantidades de informação, que não necessariamente são verídicas, não possuem uma “inteligência” como a das pessoas.
“Por mais úteis que esses programas possam ser em alguns campos específicos (como a programação de computadores, por exemplo, ou para sugerir rimas para versos rápidos), sabemos pela ciência da língua e a filosofia do conhecimento que diferem profundamente do modo como os seres humanos raciocinam e utilizam a linguagem”, alertaram. “Essas diferenças impõem limitações significativas ao que podem fazer, codificando-os com falhas inerradicáveis”.
Nesse sentido, detalharam que, diferentemente de mecanismos de aplicativos como o ChatGPT, que operam com base na coleta de inúmeros dados, a mente humana pode funcionar com pequenas quantidades de informação, por meio das quais “não busca inferir correlações abruptas entre pontos (...), mas, sim, criar explicações”.
Para sustentar essa premissa, exemplificaram com o caso das crianças quando estão aprendendo um idioma, cenário em que a partir do pouco conhecimento que possuem conseguem estabelecer relações e parâmetros lógicos entre as palavras e orações.
“Essa gramática pode ser entendida como uma expressão do sistema operacional inato geneticamente instalado, que dota os seres humanos da capacidade de gerar frases complexas e longas cadeias de pensamento”, disseram, para depois acrescentarem que “é completamente diferente ao de um programa de aprendizado automático”.
Nessa linha, manifestam que esses aplicativos não são realmente “inteligentes”, pois carecem de capacidade crítica. Embora possam descrever e prever “o que é”, “o que foi” e “o que será”, não são capazes de explicar “o que não é” e “o que não poderia ser”.
“Suponhamos que você tenha uma maçã em sua mão. Então, você a solta, observa o resultado e diz: “A maçã cai”. Isso é uma descrição. Uma previsão poderia ser a afirmação: “cairá se eu abrir minha mão”. As duas afirmações são valiosas e podem estar corretas. Contudo, uma explicação significa algo a mais, inclui não apenas descrições e previsões, mas também conjecturas contrafactuais como “qualquer objeto deste tipo cairia”, mais a cláusula adicional: “devido à força da gravidade” ou “devido à curvatura do espaço-tempo”.
Desta maneira, acrescentaram que “isto é uma explicação causal: a maçã não teria caído, se não fosse pela força da gravidade (...) isso é pensar”.
E ainda que as pessoas também podem cometer erros de raciocínio, enfatizaram que errar faz parte do pensamento, pois “para ter razão, deve ser possível se equivocar”.
“O ChatGPT e programas semelhantes são, por projeto, ilimitados no que podem 'aprender' (ou seja, memorizar). São incapazes de distinguir o possível do impossível. Ao contrário dos humanos, por exemplo, que são dotados de uma gramática universal que limita os idiomas que podemos aprender àqueles com um certo tipo de elegância quase matemática, esses programas aprendem idiomas humanamente possíveis e humanamente impossíveis com a mesma facilidade”.
Outro fator que Chomsky, Roberts e Watumull consideraram em sua análise é que os sistemas de IA carecem de ponderação na perspectiva moral, portanto, são incapazes de distinguir sob marcos éticos o que se deve ou não fazer.
Para eles, é fundamental que os resultados do ChatGPT sejam “aceitáveis para a maioria dos usuários” e que se mantenham “distantes de conteúdos moralmente censuráveis” (como as declarações de “atos destrutivos” do chatbot do Bing).
E embora os desenvolvedores dessas tecnologias tenham acrescentado restrições para que seus programas não reproduzam determinadas afirmações, os estudiosos ressaltaram que até o momento não foi possível alcançar um equilíbrio efetivo. Em suas palavras, sacrificam a criatividade por “uma espécie de amoralidade” que faz com que se distanciem ainda mais das capacidades dos seres humanos.
“Em síntese, o ChatGPT e seus irmãos são constitutivamente incapazes de equilibrar a criatividade com a restrição. Ou extrapolam (produzindo tanto verdades quanto falsidades, apoiando tanto decisões éticas quanto antiéticas) ou, então, simplificam (mostrando falta de compromisso com qualquer decisão e indiferença com as consequências)”, sentenciaram.
FECHAR
Comunique à redação erros de português, de informação ou técnicos encontrados nesta página:
O que Noam Chomsky pensa a respeito da Inteligência Artificial do ChatGPT - Instituto Humanitas Unisinos - IHU