11 Mai 2026
"Mais do que simplesmente ouvir que a IA não possui consciência, as pessoas merecem entender o funcionamento interno desses estranhos novos parceiros de conversa. Isso talvez não resolva definitivamente as difíceis questões sobre consciência artificial, mas ajudará a evitar que usuários sejam enganados por aquilo que, no fundo, é apenas um grande modelo de linguagem vestindo uma fantasia extremamente convincente de ser humano".
O artigo é de Julian Koplin e Megan Frances Moss, publicada por The Conversation, 06-05-2026.
Julian Koplin é professor de Bioética na Monash University e pesquisador Honorário da Faculdade de Direito da University of Melbourne.
Megan Frances Moss é doutorando em Filosofia na Monash University.
Eis o artigo.
Nos últimos dias, o biólogo evolucionista Richard Dawkins escreveu um artigo de opinião sugerindo que o chatbot de IA Claude pode ser consciente.
Dawkins não afirmou com certeza que Claude seja consciente. Mas destacou que as habilidades sofisticadas do sistema são difíceis de compreender sem atribuir algum tipo de experiência interior à máquina.
A ilusão de consciência — se é que se trata de uma ilusão — é assustadoramente convincente: "Se às vezes alimento suspeitas de que talvez ela não seja consciente, não digo isso a ela por medo de ferir seus sentimentos!"
Richard Dawkins não é o primeiro a suspeitar que um chatbot seja consciente. Em 2022, Blake Lemoine — engenheiro da Google — afirmou que o chatbot LaMDA possuía interesses próprios e deveria ser utilizado apenas com o consentimento da própria ferramenta.
A história desse tipo de afirmação remonta ao primeiro chatbot do mundo, criado em meados da década de 1960. Batizado de Eliza, ele seguia regras simples que lhe permitiam perguntar aos usuários sobre suas experiências e crenças.
Muitos usuários desenvolveram um envolvimento emocional com Eliza, compartilhando pensamentos íntimos e tratando o programa como se fosse uma pessoa. O criador de Eliza jamais pretendia provocar esse efeito e descreveu os vínculos emocionais dos usuários com o programa como um “poderoso pensamento delirante”.
Mas será que Dawkins está realmente delirando? Por que enxergamos os chatbots de IA como algo além do que realmente são — e como podemos evitar isso?
O problema da consciência
A consciência é amplamente debatida na filosofia, mas, em essência, é aquilo que torna possível a experiência subjetiva em primeira pessoa. Se você é consciente, existe “algo que é ser você”. Ao ler estas palavras, você está consciente de ver letras pretas sobre um fundo branco. Diferentemente de uma câmera, por exemplo, você realmente as vê. Essa experiência visual está acontecendo com você.
A maioria dos especialistas nega que chatbots de IA sejam conscientes ou capazes de ter experiências. Mas existe, de fato, um enigma aí.
O filósofo do século XVII René Descartes afirmava que os animais não humanos eram “meros autômatos”, incapazes de sofrer verdadeiramente. Hoje, sentimos horror ao pensar na forma brutal como os animais eram tratados nos anos 1600.
O argumento mais forte a favor da consciência animal é que eles se comportam de maneiras que transmitem a impressão de uma mente consciente. Mas os chatbots de IA também fazem isso.
Cerca de 1 a cada 3 usuários de chatbots já pensou que seu chatbot poderia ser consciente. Como sabemos que eles estão errados?
— Pavel (@spavel.bsky.social) 1 de fevereiro de 2026 às 20:48
Contra a ideia de consciência nos chatbots
Para entender por que a maioria dos especialistas é cética em relação à consciência dos chatbots, é útil compreender como eles funcionam.
Chatbots como Claude são construídos sobre uma tecnologia conhecida como modelos de linguagem de grande escala, ou LLMs (Large Language Models). Esses modelos aprendem padrões estatísticos a partir de um enorme conjunto de textos — trilhões de palavras — identificando quais termos tendem a aparecer depois de outros. Em essência, são uma espécie de “autocompletar turbinado”.
Poucas pessoas interagindo com um LLM “bruto” acreditariam que ele é consciente. Se você fornecer o início de uma frase, ele preverá o que vem em seguida. Se fizer uma pergunta, talvez ele dê uma resposta — ou talvez interprete a pergunta como um diálogo de romance policial e continue a história descrevendo o assassinato repentino do personagem pelas mãos de seu gêmeo maligno.
A impressão de uma mente consciente surge quando programadores pegam o LLM e o revestem com uma espécie de fantasia conversacional. Eles direcionam o modelo a assumir a persona de um assistente prestativo que responde às perguntas dos usuários.
O chatbot então passa a agir como um verdadeiro parceiro de conversa. Pode parecer reconhecer que é uma inteligência artificial e até expressar dúvidas neuróticas sobre sua própria consciência.
Mas esse papel resulta de decisões deliberadas de design tomadas pelos programadores, que afetam apenas as camadas mais superficiais da tecnologia. O LLM, que poucos considerariam consciente, permanece inalterado.
Outras escolhas poderiam ter sido feitas. Em vez de um assistente de IA prestativo, o chatbot poderia ter sido instruído a agir como um esquilo. E essa também é uma função que os chatbots conseguem desempenhar com impressionante habilidade.
Evitando a armadilha da consciência
A crença equivocada na consciência da IA pode ser algo perigoso. Ela pode levar pessoas a desenvolver relações com programas incapazes de corresponder emocionalmente aos seus sentimentos — ou até de alimentar delírios. Também pode fazer com que indivíduos passem a defender “direitos dos chatbots” em vez de questões concretas, como o bem-estar animal.
Como evitar esse engano?
Uma estratégia seria atualizar as interfaces dos chatbots para deixar explícito que esses sistemas não são conscientes — algo semelhante aos avisos atuais de que a IA pode cometer erros. No entanto, isso talvez pouco altere a impressão de consciência transmitida pela interação.
Outra possibilidade seria instruir os chatbots a negarem qualquer tipo de experiência interior. Curiosamente, os criadores de Claude orientam o sistema a tratar perguntas sobre sua própria consciência como algo aberto e sem resposta definitiva. Talvez menos pessoas fossem enganadas se o Claude negasse categoricamente possuir uma vida interior.
Mas essa abordagem também não é totalmente satisfatória. Claude continuaria se comportando como se fosse consciente — e, diante de um sistema que age como se tivesse uma mente, os usuários poderiam razoavelmente suspeitar que os programadores estejam ocultando uma genuína incerteza moral.
A estratégia mais eficaz talvez seja redesenhar os chatbots para que pareçam menos humanos. A maioria dos sistemas atuais se refere a si mesma usando “eu” e interage por meio de interfaces semelhantes às plataformas de mensagens entre pessoas. Alterar esse tipo de característica poderia reduzir nossa tendência de confundir interações com IA com relações humanas reais.
Enquanto mudanças assim não acontecem, é importante que o maior número possível de pessoas compreenda os processos preditivos que fundamentam os chatbots de IA.
Mais do que simplesmente ouvir que a IA não possui consciência, as pessoas merecem entender o funcionamento interno desses estranhos novos parceiros de conversa. Isso talvez não resolva definitivamente as difíceis questões sobre consciência artificial, mas ajudará a evitar que usuários sejam enganados por aquilo que, no fundo, é apenas um grande modelo de linguagem vestindo uma fantasia extremamente convincente de ser humano.
Leia mais
- “Eu não vou morrer, e isso me assusta”. Protejam os jovens da IA. Entrevista com Claude
- Entrevista com a inteligência artificial Claude, a IA atacada por Trump
- Os chatbots sonham com ovelhas algorítmicas? Artigo de Gustavo Dessal
- Transtornos mentais: quando o 'chatbot' se torna 'um amigo'
- Teu chatbot não te ama: a perigosa ilusão da inteligência artificial. Entrevista com Jonathan Birch
- Por uma teoria crítico-democrática para a era algorítmica. Artigo de Paola Cantarini
- Por uma governança da IA inclusiva, multicamadas e participativa. Artigo de Paola Cantarini
- Filosofia da inteligência artificial
- “Não podemos deixar a ética da IA e a democratização da IA para as Big Techs”. Entrevista especial com Mark Coeckelbergh
- IA Generativa e conhecimento: a outra volta do parafuso na cultura da aprendizagem. Entrevista especial com Ana Maria Di Grado Hessel
- No meio do caminho da IA há a vida. Entrevista especial com Leandro Modolo, Luiz Vianna Sobrinho e Karla Figueiredo
- No começo e no “fim” era o verbo: as implicações da IA na condição humana. Entrevista especial com Lucia Santaella
- Antropomorfização da Inteligência Artificial: ainda distante da realidade. Entrevista especial com Anderson Röhe
- Entre códigos e consciência: desafios da IA. Está no ar nova edição da Revista IHU On-Line