29 Março 2023
"O problema não é que os chatbots sejam estúpidos; é que eles não são 'estúpidos' o suficiente. Não é que eles sejam ingênuos (incapazes de ironizar e refletir); é que eles não são ingênuos o suficiente (não conseguindo perceber os momentos em que a ingenuidade está mascarando a perspicácia). O verdadeiro perigo, então, não é o de as pessoas confundirem os chatbots com pessoas reais; mas de os chatbots fazerem as pessoas reais falarem como chatbots – incapazes de notar as nuances e ironias, dizendo de maneira obsessiva exatamente aquilo que pensam que querem dizer", escreve Slavoj Žižek, filósofo, psicanalista e professor da European Graduate School e do Instituto de Sociologia da Universidade de Liublian, em artigo publicado originalmente no portal Project Syndicate e reproduzido por A Terra é Redonda, 27-03-2023. A tradução é de Daniel Pavan.
Não há nada de novo nos “chatbots” que são capazes de sustentar uma conversa em linguagem natural, compreendendo as intenções básicas do usuário e oferecendo respostas baseadas em regras e dados predefinidos. Sua capacidade, no entanto, aumentou dramaticamente nos últimos meses, levando muitos ao pânico e ao desespero.
Muito se disse sobre os chatbots serem um prenúncio do fim das dissertações estudantis. Mas um problema que requer maior atenção é como os chatbots devem responder quando os interlocutores humanos usam afirmações agressivas, sexistas ou racistas para incitar o robô a apresentar suas próprias fantasias de baixo calão em resposta. As inteligências artificiais deveriam ser programadas para responder no mesmo nível das questões que lhes são postas?
Se decidirmos que algum tipo de controle deve ser aplicado, devemos então determinar quão longe a censura deve ir. Posicionamentos políticos que alguns setores consideram “ofensivos” serão proibidos? E as expressões de solidariedade com os palestinos da Cisjordânia? A afirmação de que Israel é um Estado de apartheid (o que o ex-presidente Jimmy Carter colocou certa vez no título de um livro)? Tudo isso será bloqueado por ser “antissemita”?
O problema não termina aqui. Conforme nos alerta o escritor e artista James Bridle, as novas inteligências artificiais são “baseadas na apropriação em massa da cultura existente”, e a crença de que elas são “verdadeiramente instruídas ou portadoras de sentido é ativamente perigosa”. Por isso, devemos ser bastante cautelosos com os novos geradores de imagem por inteligência artificial. “Em sua tentativa de compreender e replicar a cultura visual humana em sua integridade” observa Bridle, “[eles] parecem também ter recriado nossos maiores medos. Talvez isto seja apenas um sinal de que estes sistemas são realmente muito bons em imitar a consciência humana, alcançando inclusive os horrores que estão à espreita nas profundezas de nossa consciência: nossos pavores diante da imundície, da morte e da corrupção”.
Mas quão boas são as novas inteligências artificiais em se assemelhar à consciência humana? Considere o bar que, recentemente, anunciou uma promoção especial sob os seguintes termos: “Compre uma cerveja pelo preço de duas e receba uma segunda cerveja completamente grátis!”. Para qualquer humano, isso é obviamente uma brincadeira. A típica oferta “compre uma, ganhe uma” é reformulada para cancelar a si mesma. Trata-se de uma expressão de cinismo apreciada enquanto honestidade cômica, de modo a aumentar as vendas. Um chatbot seria capaz de compreender isso?
“Foder” apresenta um problema semelhante. Embora a palavra designe algo que a maioria das pessoas gosta de fazer (copular), ela também adquire um valor negativo (“Estamos fodidos!”, “Vá se foder!”). A linguagem e a realidade são confusas. A inteligência artificial está pronta para discernir tais diferenças?
Em seu ensaio de 1805, “Sobre a formação gradual dos pensamentos no processo da fala” (publicado postumamente em 1878), o poeta alemão Heinrich von Kleist inverteu dito popular de que não se deve abrir a boca para falar a não ser que se tenha uma ideia clara do que dizer: “sendo assim, se um pensamento é expresso de uma forma confusa, isso não significa de forma alguma que tal pensamento foi concebido de uma maneira confusa. Pelo contrário, é possível que as ideias que são expressas das maneiras mais confusas sejam justamente aquelas que foram pensadas com maior clareza”.
Essa relação entre linguagem e pensamento é extraordinariamente complicada. Em uma passagem de um de seus discursos no início dos anos 1930, Joseph Stalin propõe medidas radicais para “detectar e combater sem piedade até mesmo aqueles que se opõem a coletivização apenas em seus pensamentos – sim, é isso que eu quero dizer, devemos combater até mesmo os pensamentos das pessoas”. Podemos presumir seguramente que essa frase não foi preparada de antemão. Ao se deixar levar pelo momento, Stalin imediatamente tomou consciência do que ele acabara de dizer. Mas em vez de recuar, ele decidiu continuar com a sua hipérbole.
Conforme Jacques Lacan afirmou posteriormente, este foi um dos casos em que a verdade emerge de surpresa através do ato de enunciação. Louis Althusser identificou um fenômeno semelhante na relação entre prise e surprise. Alguém que subitamente toma consciência (“prise”) de uma ideia se surpreenderá com o que realizou. De novo, algum chatboté capaz de fazer isso?
O problema não é que os chatbots sejam estúpidos; é que eles não são “estúpidos” o suficiente. Não é que eles sejam ingênuos (incapazes de ironizar e refletir); é que eles não são ingênuos o suficiente (não conseguindo perceber os momentos em que a ingenuidade está mascarando a perspicácia). O verdadeiro perigo, então, não é o de as pessoas confundirem os chatbots com pessoas reais; mas de os chatbots fazerem as pessoas reais falarem como chatbots – incapazes de notar as nuances e ironias, dizendo de maneira obsessiva exatamente aquilo que pensam que querem dizer.
Quando eu era mais jovem, um amigo foi a um psicanalista buscar tratamento após uma experiência traumática. A ideia que este amigo tinha acerca do que tais analistas esperam de seus pacientes era um clichê, e ele passou a primeira sessão produzindo falsas “associações livres” sobre como ele odiava seu pai e desejava sua morte. A reação do analista foi ingênua: ele adotou um posicionamento “pré-freudiano” ingênuo e repreendeu meu amigo por não respeitar seu pai (“Como você pode falar assim da pessoa que o fez o que você é?”). Essa falsa inocência passou uma mensagem clara: não estou comprando suas falsas “associações”. Um chatbot seria capaz de compreender este subtexto?
Provavelmente não compreenderia, porque ele é como a interpretação de Rowan Williams do Príncipe Míchkin do livro O idiota de Dostoievsky. De acordo com a interpretação convencional, Míchkin, “o idiota”, é “um homem positivamente bom e belo” que foi levado à loucura solitária pelas duras brutalidades e paixões do mundo real. Na releitura radical de Williams, porém, Míchkin representa o olho de uma tempestade: por melhor e mais santo que ele seja, é ele que provoca o caos e as mortes que presencia por causa de seu papel na complexa teia de relações em seu redor.
Não é que Míchkin seja um ingênuo simplório. Mas que seu tipo particular de obtusidade o torna incapaz de se dar conta dos seus efeitos desastrosos sobre os outros. Ele é uma personagem plana que fala literalmente como um chatbot. Sua “bondade” se baseia no fato de que, como um chatbot, ele reage aos desafios sem ironia, oferecendo chavões desprovidos de qualquer reflexividade, entendendo tudo de forma literal e baseando-se em um mecanismo mental de respostas autocompletadas em vez da formação de ideias. Por este motivo, os novos chatbots se darão muito bem com ideólogos de todas as estirpes, desde a multidão “woke” contemporânea aos nacionalistas “MAGA”, que preferem continuar dormindo.
FECHAR
Comunique à redação erros de português, de informação ou técnicos encontrados nesta página:
Idiotice Artificial. Artigo de Slavoj Žižek - Instituto Humanitas Unisinos - IHU