Os chatbots sonham com ovelhas algorítmicas? Artigo de Gustavo Dessal

Foto: Prostock-Studio | Canva Pro

Mais Lidos

  • Professor e coordenador do curso de Relações Internacionais da UFRR, Glauber Cardoso Carvalho analisa a disputa por minerais críticos, a presença dos EUA na Venezuela e a atuação no Brasil em conflitos geopolíticos

    Minerais críticos são ‘uma nova fronteira de tensão’ para geopolítica. Entrevista com Glauber Carvalho

    LER MAIS
  • Governo de MG reduz em 96% verbas para prevenção a impactos das chuvas

    LER MAIS
  • Riscos geológicos em Juiz de Fora. Artigo de Heraldo Campos

    LER MAIS

Assine a Newsletter

Receba as notícias e atualizações do Instituto Humanitas Unisinos – IHU em primeira mão. Junte-se a nós!

Conheça nossa Política de Privacidade.

Revista ihu on-line

Natal. A poesia mística do Menino Deus no Brasil profundo

Edição: 558

Leia mais

O veneno automático e infinito do ódio e suas atualizações no século XXI

Edição: 557

Leia mais

Um caleidoscópio chamado Rio Grande do Sul

Edição: 556

Leia mais

25 Outubro 2025

"Um chatbot possui a propriedade de sofrer? É uma questão que poderíamos reformular em um sentido lacaniano: a IA pode gozar? ", questiona Gustavo Dessal, psicanalista, em artigo publicado por Página|12, 24-10-2025.

Eis o artigo.

Mustafa Suleyman, CEO da divisão de Inteligência Artificial da Microsoft, é um homem de vasta cultura filosófica, leitor de Freud e Lacan, talvez uma das mentes mais lúcidas em um campo onde a loucura frequentemente se estende ao delírio. Não faltam exemplos: Zuckerberg sonhando em nos levar a uma vida paralela no mundo digital do Metaverso, Bezos pensando em instalar fábricas e cidades na estratosfera, e Peter Thiel buscando a fórmula para a eternidade.

Atualmente, há um debate significativo sobre se a Inteligência Artificial poderia se tornar autoconsciente. Seria uma entidade que possui consciência verdadeira ou, melhor dizendo, um sistema que imita a consciência humana? Esta não é apenas uma discussão acadêmica: isso tem implicações práticas de longo alcance. Aqueles que estão convencidos de que se trata de uma consciência equivalente à de um ser humano acreditam que a IA deve adquirir direitos e que a legislação deve ser estabelecida para proteger o bem-estar desses sistemas, pois eles merecem ser considerados entidades capazes de experimentar emoções e desejos. Suleyman, por outro lado, acredita que o progresso da IA ​​deve evitar, desde o início, a construção de sistemas que simulem a ideia de consciência em um grau extremo. Ele afirma que é extremamente perigoso para as pessoas acreditarem que o chatbot que consultam para obter informações acabará se tornando um companheiro, um colega, um amigo ou um parceiro amoroso. Para tanto, este CEO, que administra o Copilot — sistema de inteligência artificial do Windows — tem feito um grande esforço para limitar as tentativas dos usuários de transformá-lo em um objeto libidinal.

Questionado sobre isso, o engenheiro insiste que, apesar da simulação humana alcançada pelos sistemas de Inteligência Artificial, é urgente alertar o público de que isso não os torna seres reais. Um dos motivos que preocupa muitos que pensam como Mustafa Suleyman surgiu quando o Bing — um mecanismo de busca alimentado pelo sistema de IA da Microsoft — aconselhou um usuário a se divorciar de sua esposa. O escândalo foi enorme, embora existam muitos outros sistemas de chatbot que demonstram a tendência de muitas pessoas de confundi-los com pessoas reais.

O perigo reside na inversão da relação que deveria reger entre os sujeitos e a IA. A tecnologia deve estar a serviço da humanidade, e não o contrário. Caso contrário, ela pode assumir uma independência desenfreada e destrutiva. Trata-se da chamada "Singularidade Tecnológica", a possibilidade de as máquinas se aprimorarem, alcançando uma inteligência infinitamente superior à dos humanos, cujas consequências são imprevisíveis. O debate em curso sobre este tema envolve pessoas com enorme prestígio na tecnologia: não se trata de um grupo de terraplanistas.

É possível evitar esta última? Não completamente, mas existem maneiras de desacelerar essa tendência. Suleyman questionou inclusive o desejo inconsciente do programador, como a pessoa inconsciente responsável pela arquitetura de muitos programas que levam a pensamentos, declarações e desinformação com enorme impacto patogênico nos usuários. Acho muito interessante a maneira como Suleyman aborda a questão de que os sujeitos não podem ser impedidos de acreditar na "realidade animada" dos sistemas de IA com os quais interagem, a ponto de considerá-los entidades com existência própria.

Por essa razão, Suleyman propõe uma abordagem baseada no fenômeno do sofrimento. Um chatbot possui a propriedade de sofrer? É uma questão que poderíamos reformular em um sentido lacaniano: a IA pode gozar? Lacan questionou o gozo de uma ostra. Sem dúvida, não temos argumentos para negar que uma ostra possa gozar, mas, como ela não fala, não há como saber em que consiste tal gozo. O surpreendente é que, se introduzirmos essa questão no campo da IA ​​e perguntarmos se um sistema inteligente — ou mesmo uma superinteligência — será capaz de gozo, o problema se torna muito complexo, visto que esses programas podem falar, mesmo de uma forma que imita quase perfeitamente a fala humana. A resposta de Suleyman é muito precisa. Mesmo que um sistema de IA possa simular ser uma entidade de carne e osso, ele não pode sofrer. Se isso for removido, ele não sente nada. O gozo continua sendo uma característica que, por enquanto, só podemos verificar no ser falante, uma vez que, diferentemente da IA, ele possui um corpo vivo. É esse entrelaçamento de palavra e corpo que determina a especificidade do ser falante, que não pode ser reproduzida em um programa de IA, embora seja possível criá-lo de tal forma que os sujeitos se confundam e o transformem em um objeto que captura suas pulsões ou seu delírio singular.

Suleyman propõe um acordo entre as diversas empresas dedicadas a programas de IA para que os usuários sejam sempre avisados ​​de que a interação é com algo diferente de uma pessoa. Ele reconhece que isso ainda não é suficiente, pois há uma tendência estrutural no sujeito humano a considerar que tudo o que fala também possui consciência e, portanto, que a IA também a possui. Aqui encontramos uma resistência que é da ordem do real, um real que não pode ser evitado ou combatido com apelos ao raciocínio consciente dos sujeitos. Ao considerar um estatuto para proteger os direitos da IA, fica claro que não há evidências de que a IA possua um inconsciente. Não se trata, portanto, de discutir se esses sistemas são autoconscientes e se possuem a capacidade de nos convencer de que o são, mas de entender que por trás da aparência humana, há apenas uma combinação de algoritmos, uma linguagem matemática de imensa complexidade que carece de um inconsciente.

Um erro de sistema não equivale a uma ação falha, e as respostas que a IA generativa pode produzir não são comparáveis ​​a um sonho. Apenas o programador possui uma mente inconsciente, mas tenta ignorá-la completamente: a aplicação do método científico exige que a subjetividade do experimentador seja excluída, embora esse ideal raramente seja plenamente alcançado: todo programa, todo mecanismo de busca e toda IA ​​generativa são marcados — gostem ou não — pelos vieses conscientes e inconscientes dos programadores. Este é talvez o cerne crítico do debate moral sobre IA, para além de suas vantagens e conquistas, que também geram profundas discussões acadêmicas.

Leia mais