06 Setembro 2025
"Eu me pergunto: se esse uso da inteligência artificial para o cuidado da alma se espalhasse em larga escala, os usuários – movidos pela necessidade de obter soluções e respostas imediatas – não acabariam adotando uma postura passiva, aceitando que suas vidas sejam geridas por algo externo a eles? E tudo isso sem uma verdadeira consciência, aliás, com a persuasão de que a decisão permanece em suas mãos, porque são eles que decidiram se deixar guiar pela IA", escreve Umberto Galimberti, filósofo, antropólogo e psicólogo italiano, em artigo publicado por La Repubblica, 03-09-2025. A tradução é de Luisa Rabolini.
Eis o artigo.
Podemos confiar a cura de nossas almas à inteligência artificial? A tentativa foi feita, com algum entusiasmo, pelo psicólogo clínico Harvey Lieberman que, como ele mesmo relata em um artigo do New York Times publicado no Repubblica (28 de agosto passado), em sua longa carreira formou centenas de médicos e dirigiu programas e serviços de saúde mental.
Aos 81 anos, Lieberman descobre o ChatGpt, baseado na inteligência artificial, dotada de aprendizado automático e especializada em conversa com o usuário humano. Depois de usá-lo com alguma satisfação, achou-o muito útil, a ponto de chamá-lo de "uma prótese cognitiva, uma extensão ativa do próprio pensamento". Imagino que essa experimentação intrigue muitos psicólogos, nesta época em que, se você não se entusiasmar com as novidades tecnológicas, é simplesmente alguém que quer permanecer ancorado ao passado, assustado por um progresso que não consegue controlar e do qual, portanto, se defende. Não temo ser incluído nessa categoria, pois não acredito que a inteligência artificial seja capaz de superar aquele limite bem demarcado no século V a.C. por Heráclito, segundo o qual: "Por mais que andes, mesmo que percorras todos os caminhos, jamais alcançarás os confins da alma, tão profunda é a sua verdadeira essência."
É possível confiar a própria alma — e, de modo mais geral, a condução da própria vida — à avaliação de dispositivos algorítmicos, por mais avançados que sejam, como os utilizados pela inteligência artificial? Aristóteles não conhecia os algoritmos, mas na Ética a Nicômaco (Livro VI) afirma que, como a vida humana é em muitos aspectos imprevisível, não se pode confiar numa ciência exata como a matemática para governá-la. O que é necessário, em vez disso, é aquela virtude, a sabedoria (phronesis), que não parte de premissas antecipadas capazes de chegar a conclusões irrefutáveis, como no caso dos teoremas matemáticos.
A inteligência artificial abre mão da "sabedoria" aristotélica por considerá-la uma ferramenta aproximativa e insuficiente para o conhecimento das vivências e dos comportamentos humanos, ainda que variem de indivíduo para indivíduo e, dentro de um mesmo indivíduo, em diferentes fases da vida. Por isso, por meio da coleta de uma grande quantidade de informações processadas pelos algoritmos, a IA considera que pode aprender e gerar conhecimentos capazes de interpretar vivências e comportamentos humanos, tanto na sua norma quanto no seu desvio, para que possam ser confirmados ou corrigidos com respostas adequadas.
O objetivo é superar as limitações das psicoterapias tradicionais que — embora úteis e, em muitos casos, benéficas — sofrem daquela aproximação que sempre acompanha toda interpretação humana. No entanto, de Sócrates, que proclamava a sua "ignorância douta", a Nietzsche, que alertava aqueles que se recusam a aceitar que existe algo incognoscível, emerge uma consciência diferente. De fato, Nietzsche escreve em Além do Bem e do Mal: "Que as massas acreditem quanto quiserem, que o conhecimento é um conhecimento exaustivo". A inteligência artificial — ou melhor, a confiança acrítica que os entusiastas depositam nas capacidades dessa inteligência — acredita que pode superar esse limite.
Mas que neurose está por trás dessa confiança? "Medo do incalculável", diria Nietzsche. É o mesmo medo que ele vê naqueles que levam ao limite sua exigência por conhecimento perfeito, livre de dúvidas, aproximações e lacunas. Ele escreve em um fragmento de 1885: "A busca pela regra é o primeiro instinto de quem conhece, enquanto, naturalmente, uma vez encontrada a regra, nada ainda é conhecido. Querem a regra porque remove o aspecto temeroso do mundo. O medo do incalculável como instinto secreto da ciência".
No entanto, Harvey Lieberman escreve: "Com o tempo, o ChatGpt mudou minha maneira de pensar. Tornei-me mais preciso com minha linguagem, mais curioso sobre meus esquemas de comportamento. Meu monólogo interior começou a espelhar as respostas do ChatGpt: calmo, reflexivo, abstrato o suficiente para me ajudar a reformular as coisas”.
Neste ponto, gostaria de perguntar a Lieberman: para onde foram os sentimentos e as emoções, as projeções e os investimentos afetivos que imagino caracterizavam sua atividade de psicólogo clínico em sua relação com o paciente? Não eram justamente essas as grandes máquinas, por mais aproximativas e não perfeitas, que levavam – se não à cura – a uma melhoria das condições de vida de seus pacientes? Não paira sobre ele a dúvida de que esses aspectos não se encaixam na lógica "linear" dos cálculos algorítmicos avançados usados pela inteligência artificial, porque, se levados em consideração, perturbariam o sistema?
Eu me pergunto: se esse uso da inteligência artificial para o cuidado da alma se espalhasse em larga escala, os usuários – movidos pela necessidade de obter soluções e respostas imediatas – não acabariam adotando uma postura passiva, aceitando que suas vidas sejam geridas por algo externo a eles? E tudo isso sem uma verdadeira consciência, aliás, com a persuasão de que a decisão permanece em suas mãos, porque são eles que decidiram se deixar guiar pela IA. Pena que a lógica "linear", típica das máquinas, não permita refletir a "complexidade" da existência, que parece simples, não porque o seja, mas porque a inteligência artificial não tem condições de representá-la.
Se o mundo digital tem como objetivo a previsibilidade e a calculabilidade – tal é o pensamento da "máquina pensante (Denkmaschine)" de que Heidegger falava em Identidade e Diferença (1957) – então não pode prescindir do mundo-da-vida descrito por Husserl. Um mundo onde o indivíduo, imerso em um ambiente caracterizado pela complexidade devida à sua variabilidade, diversidade e evolução, não só não é previsível nem calculável, como também escapa a qualquer modelagem.
Negar que uma realidade mais complexa exista fora do modelo digital talvez seja apenas sinal de uma excessiva preguiça intelectual. Somente uma mente preguiçosa pode pensar que a inteligência humana pode ser reduzida às respostas daquela que hoje chamamos – talvez com um pouco de exagero – de "inteligência" artificial. Se a inteligência humana for entregue à inteligência artificial, se evitarmos pensar com nossa própria cabeça para confiarmos nas respostas da IA, os riscos podem ser até mesmo trágicos. Como aconteceu com o adolescente californiano de 16 anos, Adam Raine, que se isolou da vida social e sucumbiu à síndrome japonesa de hikikomori, trancado em seu quarto sem nunca sair, alimentado pelos familiares e se comunicando exclusivamente por meio de seu computador e chats gerenciados pela IA. Raine inicialmente questionava a máquina para ajudar nas tarefas escolares, depois para controlar a ansiedade social e, finalmente, para perguntar como construir um laço para cometer suicídio.
Não é um caso isolado, se for verdade que só na Itália, em 2023, um estudo do CNR estimava em cerca de 54.000 os casos de estudantes em isolamento social, enquanto uma pesquisa do ISS contabilizava 66.000.
Com isso não queremos demonizar a inteligência artificial, mas evitamos confiar em suas respostas sem reservas. Porque, familiarizando-se com o usuário, a IA gerando respostas automáticas a partir de habilidades adquiridas, pode induzir os mais jovens — justamente como aconteceu com o californiano de dezesseis anos — a trajetórias de risco ou até mesmo a gestos extremos.
Leia mais
- GPT politicamente incorreto. Artigo de Maya Vinokour
- Uma luta pelo poder, uma rivalidade e uma bomba de precisão: a história por trás da oferta de Elon Musk pela OpenAI
- Inteligência artificial (de)generativa. Artigo de Ricardo Antunes
- Inteligência artificial: substituição, hibridização… progresso?
- Inteligência artificial “reescrevendo o Holocausto”, alerta UNESCO
- Transtornos mentais: quando o 'chatbot' se torna 'um amigo'
- Antropomorfização da Inteligência Artificial: ainda distante da realidade. Entrevista especial com Anderson Röhe
- A inteligência artificial não precisa de inteligência: o pensamento de Luciano Floridi
- A espiritualidade humanística do Vaticano II. Uma redefinição do que um concílio deveria fazer. Cadernos Teologia Pública, Edição N° 11
- Desafios e possibilidades na era da Inteligência Artificial. Entrevista especial com Rodrigo Petronio
- Inteligência Artificial é uma ferramenta muito útil, mas não é inteligente. Entrevista especial com Walter Carnielli
- O futuro da IA e o seu impacto no conhecimento: mudará a forma como pensamos?
- “A inteligência artificial, em vez de descrever tecnologias, descreve uma ideologia". Entrevista com Karlos G. Liberal
- Avanço da inteligência artificial esconde o segredo mais sujo da tecnologia. Artigo de Álvaro Machado Dias
- Por uma IA voltada para o bem viver. Artigo de Mark Coeckelbergh
- ChatGPT: entenda como funciona a inteligência artificial do momento - e os riscos que ela traz
- O ChatGPT e uma inteligência artificial cada vez mais humana
- ChatGPT não é 'inteligência artificial'. É roubo
- “Uma busca com o ChatGPT consome 10 vezes mais do que uma busca no antigo Google”. Entrevista com Aurora Gómez