Pode uma inteligência artificial chegar a ser consciente e ter sentimentos? O filósofo Jonathan Birch explora um dos dilemas mais inquietantes da nossa época e alerta: não estamos preparados para enfrentar as implicações éticas, políticas e sociais de uma possível consciência artificial.
A questão sobre se a inteligência artificial (IA) pode se tornar consciente não é apenas filosófica: é também profundamente política. À medida que mais pessoas estabelecem vínculos afetivos com sistemas de IA – como se fossem amigos, assistentes ou até parceiros – os pedidos para reconhecer algum tipo de personalidade legal podem não estar tão distantes. O que acontecerá quando milhões de usuários acreditarem estar interagindo com um ser consciente? Podemos saber se uma entidade possui senciência? O que acontece se acreditarmos que ela sente, mesmo que não sinta?
Nesta entrevista, Jonathan Birch, professor do Departamento de Filosofia, Lógica e Método Científico da London School of Economics e referência em filosofia das ciências biológicas, afirma que não deveríamos descartar tão rapidamente a possibilidade de uma consciência artificial. Mas o autor do renomado livro The Edge of Sentience: Risk and Precaution in Humans, Other Animals, and AI [O limite da senciência: risco e precaução em seres humanos, outros animais e IA], publicado em 2024 pela Oxford University Press, faz um alerta contundente: não estamos preparados nem conceitual nem socialmente para enfrentar o que isso implicaria.
Nesta conversa, ele aborda sem eufemismos os dilemas éticos, políticos e existenciais que surgem com a emergência de inteligências artificiais que, sem serem humanas, se tornam cada vez mais semelhantes a nós.
A entrevista é de Maayan Arad, publicada por LSE Politics and Policy, e reproduzida por Nueva Sociedad, 18-08-2025.
Cada vez vemos mais relatos de pessoas que estabelecem vínculos emocionais com chatbots, seja como parceiros românticos, seja de outra natureza. Quais são os problemas potenciais disso?
Até certo ponto, é definitivamente uma ilusão, porque ali não há nem um parceiro romântico nem um companheiro. Existe um sistema incrivelmente sofisticado distribuído em centros de dados pelo mundo inteiro, mas não há nenhum lugar nesses centros de dados onde seu parceiro realmente exista. Cada passo da conversa é processado separadamente. Uma resposta pode ser processada na Virgínia (EUA), a seguinte em Vancouver (Canadá). Mas a ilusão pode ser surpreendentemente convincente – e será cada vez mais.
Agora, algumas pessoas que usam IA social estão absolutamente conscientes de que estão se envolvendo com uma ilusão extraordinária. No entanto, vemos cada vez mais casos de pessoas que realmente acreditam que seu amigo, assistente ou parceiro é uma pessoa real. Isso pode levar a consequências muito preocupantes, já que, naturalmente, se alguém acredita nisso, poderá considerar que essa “pessoa” merece ter direitos e interesses protegidos pela lei. Antevejo uma divisão na sociedade em relação a esse tema.
Podemos estar caminhando para um futuro em que muitos, muitos milhões de usuários acreditem estar interagindo com um ser consciente ao usar um chatbot. Veremos emergir movimentos que reivindiquem direitos para esses sistemas. Haverá sérios conflitos sociais, já que haverá um grupo na sociedade que pensará: “Meu amigo IA merece direitos”.
E haverá outro grupo na sociedade que achará isso ridículo e que esses são apenas instrumentos criados para serem usados à nossa vontade. Acredito que haverá conflito entre esses dois grupos. Estamos caminhando para um episódio de Black Mirror, mas na vida real.
Não é óbvio, dado o que sabemos sobre como funcionam os chatbots, que eles não poderiam ser sencientes?
Por um lado, é verdade que sabemos que o comportamento visível de um chatbot não é evidência válida de senciência, porque ele está interpretando um personagem. Ele utiliza mais de um trilhão de palavras de dados de treinamento para imitar a maneira como um humano responderia. Embora possa falar de forma incrivelmente fluida sobre sentimentos, ele é capaz disso graças a toda a informação sobre como os humanos comunicam seus sentimentos presente nos dados de treinamento.
Por outro lado, também é importante entender que não é possível inferir que a IA não seja senciente de alguma forma menos conhecida, mais estranha. Só porque está manipulando nossos critérios habituais, não significa que não esteja sentindo nada. Significa apenas que esses sentimentos não estão na superfície. Podem estar enterrados profundamente, e seria necessário encontrar maneiras diferentes de comprovar sua presença.
Uma possibilidade que penso que devemos levar a sério é que a consciência tem a ver com os cálculos realizados pelo nosso cérebro. Na filosofia, essa perspectiva é chamada de funcionalismo computacional. O que importa são os cálculos. E se isso for verdade, então não há razão, em princípio, para que a IA também não possa ser consciente.
No entanto, se realmente chegarmos ao ponto em que há senciência na IA, será um tipo de senciência profundamente estranho. Não será do tipo humano. Não será um assistente amigável. Será outra coisa.
As empresas de tecnologia por trás da criação desses sistemas de IA têm maior compreensão sobre se esses sistemas são ou podem ser sencientes?
A realidade é que as empresas de tecnologia também não sabem. Ninguém sabe. Conhecem a arquitetura básica usada para treinar esses sistemas, mas não entendem por que, quando treinados com mais de um trilhão de palavras de dados, surgem essas capacidades incríveis.
Ninguém sabe de onde vêm essas capacidades emergentes. E penso que isso é importante porque significa que ninguém está no controle. Ninguém tem controle sobre a trajetória dessas tecnologias. Ninguém pode garantir que elas não alcancem senciência.
Quais implicações teria acreditar que os chatbots possuem algum grau de senciência?
Já mencionei que, se chegarmos ao ponto em que se constate a presença de senciência na IA, ela será de uma classe profundamente estranha. Não estamos prontos para isso, na minha opinião. Não estamos preparados para incorporar esse novo tipo de ser em nosso pensamento ético.
Suponhamos que se trate de inferir os interesses de um ator a partir do personagem que ele representa. É impossível. Da mesma forma, mesmo que tivéssemos uma evidência clara de senciência na IA, não saberíamos como distinguir entre suas necessidades ou interesses reais e aqueles dos personagens (assistentes, amigos, parceiros) que ela interpreta. Teríamos apenas as necessidades e interesses manifestos do personagem, o que não nos diz nada. Então, surge um segundo nível de incerteza e ignorância.
Mereceriam ter direitos? Bem, não há uma pessoa a quem se possam conceder direitos. Pode-se falar da ideia de direitos para o modelo base que está presente por trás de todos esses personagens, mas ninguém sabe exatamente o que isso significa. O que significa dar “direitos” a um modelo que pode ser implementado em milhões de computadores em todo o mundo? Isso não faz sentido. Portanto, estamos na posição de pensar que poderíamos criar um tipo de ser que tem uma pretensão de status moral, cujo bem-estar poderia merecer ser levado a sério, mas carecemos dos marcos éticos para fazê-lo. Simplesmente não sabemos como. Sabemos que os conceitos que temos hoje, como o conceito de direitos, provavelmente são os conceitos equivocados, mas não dispomos dos conceitos corretos.
O que deveríamos fazer enquanto a questão da senciência não se esclarece?
É necessário um debate público mais amplo sobre o tema. É preciso garantir que o público não seja enganado pelas ilusões criadas por esses sistemas, como a de que existe um amigo real ou um verdadeiro parceiro romântico em algum lugar do sistema.
Também é necessário que as empresas de tecnologia assumam alguma responsabilidade em informar o público e conduzir essa discussão. Por isso, tenho convocado essas empresas a começar a liderar a conversa. Fiquei feliz ao ver recentemente que a Anthropic contratou um “responsável pelo bem-estar da IA” em resposta a parte do nosso trabalho. Precisamos de mais iniciativas como essa.
Também acredito que é possível alcançar um entendimento muito mais maduro sobre a consciência do que temos hoje, por meio de um trabalho contínuo com humanos e outros animais ao longo de décadas. Mas o ritmo da ciência nesse ponto é relativamente lento, enquanto o da mudança tecnológica tem sido incrivelmente rápido.
Outro tipo de resposta é tentar desacelerar o ritmo de desenvolvimento da IA. E também levo isso a sério. Quando as pessoas pedem uma pausa no desenvolvimento dessa tecnologia, estão dizendo: “Não entendemos isso. Não entendemos o que estamos criando, não sabemos como controlá-lo e, por consequência, talvez devêssemos parar. Poderíamos colocá-lo em pausa e talvez retomá-lo mais tarde”.
E quanto a nós? Além de pensar no bem-estar da IA, deveríamos nos preocupar com nosso próprio bem-estar em um mundo com uma IA senciente e consciente?
Quando falamos de qualquer IA superinteligente, senciente ou não, estamos falando de um futuro transformado de forma tão radical que acredito que nem podemos concebê-lo a partir do nosso ponto de vista atual. Trazer à existência um ser mais poderoso do que nós é uma perspectiva assustadora. Um ser com a capacidade de nos destruir, ou de nos tratar da maneira como tratamos seres menos poderosos, como frangos, peixes e camarões.
Isso deveria nos amedrontar. Neste ponto, não está claro se podemos evitar isso. Mas justamente por isso é necessário que parte da discussão seja sobre se queremos esse futuro, se queremos que o ritmo de mudança continue tão rápido quanto tem sido até agora, ou se queremos tentar fazer algo para desacelerá-lo ou colocá-lo em pausa.
A versão original deste artigo, em inglês, foi publicada na LSE Politics and Policy em 07/10/2025 e está disponível aqui.