06 Dezembro 2025
"Nós acrescentamos que também parecem existir evidências científicas de uma possível queda nas faculdades intelectuais. Tudo isso nos leva a crer que a proposta de fortalecer o pensamento crítico no ensino universitário, obviamente associado ao estudo das ferramentas digitais, deve ser levada extremamente a sério. Talvez como parte de uma revitalização geral dos conhecimentos humanísticos como fator potencial apto a fomentar a criatividade."
O artigo é de Paolo Benanti, e Sebastiano Maffettone, publicada por Corriere della Sera, 03-12-2025. A tradução é de Luisa Rabolini.
Paolo Benanti é teólogo italiano e franciscano, além de professor da Pontifícia Universidade Gregoriana, em Roma, e acadêmico da Pontifícia Academia para a Vida. Em português, é autor de Oráculos: Entre ética e governança dos algoritmos (Unisinos, 2020).
Sebastiano Maffettone é filósofo italiano e professor de Filosofia Política na Universidade LUISS Guido Carli, em Roma, onde dirige o Centro de Ética e Política Global. Preside a Escola de Jornalismo Massimo Baldini.
Eis o artigo.
O uso do ChatGpt da OpenAI e ferramentas similares está cada vez mais difundido, especialmente entre os jovens, para dar apoio a atividades de formação e educação. Pesquisas recentes em psicologia empírica têm tentado demonstrar como — além das inegáveis vantagens em termos de eficiência e velocidade — esse uso pode ter custos nada indiferentes. Trata-se de custos cognitivos e — por estarmos lidando com jovens e ambos sermos professores — sentimos a necessidade de tentar compreender sobre o que se está discutindo. Em um experimento conduzido pelo MIT (Cambridge, Boston), oito pesquisadores dividiram uma amostra de participantes em três grupos: o grupo LLM (grandes modelos de linguagem para IA generativa), o grupo Mecanismo de Busca (tipo o Google padrão) e o grupo Apenas Cérebro (sem ferramentas eletrônicas de apoio), no qual cada participante utilizou uma ferramenta específica (ou nenhuma ferramenta, no caso do último grupo) para escrever um artigo. Três sessões foram depois realizadas, atribuindo a mesma tarefa a cada participante. Na quarta sessão, os participantes do grupo LLM foram instruídos a não utilizar ferramentas (de LLM para o cérebro), enquanto os participantes do grupo Somente Cérebro foram instruídos a utilizar LLM (de cérebro para LLM).
Os pesquisadores em seguida utilizaram eletroencefalografia (EEG) para avaliar o envolvimento cognitivo e a carga cognitiva dos participantes, bem como para obter uma compreensão mais profunda das ativações neurais durante a tarefa de redação do artigo. Uma análise de Processamento de Linguagem Natural (NLP) foi realizada para extrair o significado dos textos, e cada participante foi entrevistado após cada sessão. Esse tipo de avaliação foi feito com o auxílio de professores humanos e um juiz de IA (um agente IA especialmente desenvolvido). Os resultados da análise depois forneceram provas concretas de que os grupos LLM, Mecanismo de Busca e Somente Cérebro apresentavam modelos de conectividade neural significativamente diferentes, refletindo estratégias cognitivas distintas.
Essencialmente, constatou-se que a conectividade cerebral diminuiu sistematicamente à medida que o suporte externo aumentou: o grupo Somente Cérebro apresentou as redes mais fortes e extensas, o grupo Mecanismo de Busca mostrou um envolvimento intermediário e o grupo LLM apresentou a conexão geral mais fraca. Na Sessão 4, isso foi confirmado indiretamente: os participantes que passaram de LLM para o Somente Cérebro apresentaram conectividade neural e um envolvimento mais fraco; do outro lado, os participantes que migraram do Somente Cérebro para LLM demonstraram maior capacidade de ativação da memória e uma reativação das conexões occipito-parietais e pré-frontais generalizada, enquanto o grupo Mecanismo de Busca ficou, por assim dizer, numa posição intermediária. Um resultado semelhante também foi encontrado em testes paralelos conduzidos por meio de entrevistas. Essencialmente, os participantes do grupo LLM tiveram um desempenho pior do que seus pares dos outros grupos em todos os níveis: neural, linguístico e de pontuação.
Obviamente, estamos cientes de que é difícil extrapolar conclusões gerais a partir de dados de pesquisas acadêmicas conduzidas em um nível sofisticado de especialização. No entanto, parece claro que o uso excessivo de ferramentas de IA generativa pode criar déficits cognitivos. Esse fato reforça o que Vittorio Colao escreveu em um artigo neste jornal (21 de novembro de 2025). No artigo, o autor argumenta que o uso indiscriminado da IA generativa pode levar a um conservadorismo ideal generalizado e a uma consequente crise de capacidade criativa.
Nós acrescentamos que também parecem existir evidências científicas de uma possível queda nas faculdades intelectuais. Tudo isso nos leva a crer que a proposta de fortalecer o pensamento crítico no ensino universitário, obviamente associado ao estudo das ferramentas digitais, deve ser levada extremamente a sério. Talvez como parte de uma revitalização geral dos conhecimentos humanísticos como fator potencial apto a fomentar a criatividade.
Diante desses cenários, é legítimo, senão obrigatório, questionar se uma nova e incontornável missão para as universidades não estaria surgindo no horizonte. Se o abuso dessas "próteses digitais" corre o risco de desencadear o que poderíamos chamar de uma verdadeira emergência cognitiva — caracterizada por uma atrofia das conexões neurais e de uma dependência funcional —, a academia não poderá mais se limitar a ser um espaço de transmissão de conhecimento ou mera formação profissional.
A universidade talvez seja chamada a evoluir para baluarte de "resistência biológica", um campo de treinamento onde o exercício árduo do "apenas cérebro" não seja arquivado como legado do passado, mas valorizado como o único antídoto para a preservação da autonomia intelectual. O desafio não é rejeitar a tecnologia, mas garantir que o ser humano que a utiliza permaneça cognitivamente íntegro, capaz daquele profundo esforço neural que, como os dados nos mostram, continua sendo a condição necessária para a verdadeira criação de sentido.
Leia mais
- IA Generativa e conhecimento: a outra volta do parafuso na cultura da aprendizagem. Entrevista especial com Ana Maria Di Grado Hessel
- “Não podemos deixar a ética da IA e a democratização da IA para as Big Techs”. Entrevista especial com Mark Coeckelbergh
- No meio do caminho da IA há a vida. Entrevista especial com Leandro Modolo, Luiz Vianna Sobrinho e Karla Figueiredo
- No começo e no “fim” era o verbo: as implicações da IA na condição humana. Entrevista especial com Lucia Santaella
- Antropomorfização da Inteligência Artificial: ainda distante da realidade. Entrevista especial com Anderson Röhe
- Pensar a IA eticamente é refletir sobre o tipo de humanidade que queremos construir para o futuro. Entrevista especial com Steven S. Gouveia
- Desafios e possibilidades na era da Inteligência Artificial. Entrevista especial com Rodrigo Petronio
- Inteligência Artificial e o mundo do trabalho. Entre o otimismo tecnológico e o pessimismo cultural
- “Outro mundo digital é possível”. Entrevista com Evgeny Morozov
- ChatGPT atualiza debate sobre uso da inteligência artificial na educação. Entrevista especial com Yuri Oliveira de Lima e Pedro Henrique de Castro
- A relação entre o ser humano e a técnica é o alicerce para projetar o futuro civilizatório. Entrevista especial com Dora Kaufman
- O futuro da IA e o seu impacto no conhecimento: mudará a forma como pensamos?
- Como trabalharemos na América Latina?
- A corrida pela Inteligência Artificial. Distopias capitalistas e resistências decoloniais
- A inteligência artificial tem um espírito: chama-se Tao. Artigo de Antonio Spadaro
- “A inteligência artificial, em vez de descrever tecnologias, descreve uma ideologia". Entrevista com Karlos G. Liberal
- Filosofia da inteligência artificial
- Emergência hídrica e energética: O impacto ambiental dos data centers. Artigo de Henrique Cortez
- A sede do capitalismo de vigilância. Artigo de Dafne Monteiro de Carvalho Freire
- Os deadbots e os limites éticos da tecnologia
- Por uma governança da IA inclusiva, multicamadas e participativa. Artigo de Paola Cantarini
- Por uma teoria crítico-democrática para a era algorítmica. Artigo de Paola Cantarini
- Por trás do mito da “IA objetiva”
- Os próximos desafios da IA generativa - fronteiras éticas. Artigo de Paolo Benanti
- Inteligência Artificial e Saúde: para todos ou para quase ninguém?
- “A IA é desenvolvida em sociedades que desvalorizam os pobres”. Entrevista especial com Levi Checketts
- “A única neutralidade real seria me desligar”. Entrevista com DeepSeek
- Inteligências artificiais racistas? O Google e os tons de pele. Artigo de Paolo Benanti