Antropomorfização da Inteligência Artificial: ainda distante da realidade. Entrevista especial com Anderson Röhe

​Para o pesquisador sobre ética e IA, é preciso desmistificar os episódios em que as máquinas parecem imitar o comportamento humano, já que nelas inexiste a intencionalidade deliberada de enganar, desinformar ou mesmo trapacear, e sim o propósito de responder à questão do interlocutor a qualquer custo

Vídeo: Pixabay

24 Junho 2025

“Não é nova a tendência de se atribuir desde sentimentos e emoções a características e comportamentos humanos a coisas e a seres que não são humanos; um fenômeno para a psicologia conhecido como antropomorfismo ou antropomorfização”, explica o advogado e pesquisador Anderson Röhe ao abordar questões éticas que perpassam as interações entre sistemas de Inteligência Artificial – IA e seres humanos.

Segundo aponta, o perigo está na sujeição emocional que os humanos desenvolvem a partir do uso de aplicações informacionais dotadas de IA, como o ChatGPT. “Sistemas conversacionais munidos de IA podem estar não apenas aprimorando a interação humano/máquina, como também podem estar alimentando uma ‘dependência emocional’ jamais registrada na atual escala e velocidade de propagação”, alerta o entrevistado.

Conforme explica o pesquisador da Associação Brasileira de Empresas de Software – ABES, “no instante em que as máquinas emulam aparência mais humana e transmitem a sensação de proximidade psicológica é aí que lhe ganham a confiança, formando um vínculo emocional poderoso entre humano e máquina”. No momento em que já não conseguimos separar o que é ficção e realidade, “é que devemos ficar atentos para os possíveis riscos advindos dessa ‘humanização’”, adverte.

Röhe, na entrevista concedida por e-mail ao Instituto Humanitas Unisinos – IHU, esclarece que a IA “ainda” está distante de alcançar um estado de consciência semelhante aos humanos. “A Inteligência Artificial generativa (IAG), por exemplo, tem propósito, mas não tem intencionalidade, uma vez que a intencionalidade depende da existência da consciência e autoconsciência, algo que a IA (ainda) está longe de possuir”, exemplifica. “As IAs não estão programadas para falar a verdade, e sim comprometidas em não deixar os usuários sem uma resposta, por mais equivocada, inusitada, limitada ou distante da realidade que possa parecer”, pontua.

Anderson Röhe (Foto: Arquivo pessoal)

Anderson Röhe é advogado membro das Comissões Especiais de Tecnologia e Inovação; Privacidade, Proteção de Dados e Inteligência Artificial da OAB-SP, triênio 2025-2027. Especialista em Direito Digital pela UERJ e ITS Rio. Mestre em Políticas Internacionais na PUC-Rio. Doutorando em Tecnologias da Inteligência e Design Digital junto à PUC-SP sobre governança da Inteligência Artificial e suas implicações para o Sul Global, em especial o Brasil. É pesquisador sênior no think tank ABES – Associação Brasileira de Empresas de Software (GT-IA). Também desenvolve pesquisas no Ethics4AI e Legal Fronts Institute sobre ética, concorrência e mercados digitais. Para conhecer mais sobre o trabalho do entrevistado, acesse seu site.

Confira a entrevista.

IHU – Considerando o que sabemos hoje sobre IA generativa, o que se pode dizer sobre seu propósito?

Anderson Röhe – Em poucas palavras pode-se dizer que o propósito da Inteligência Artificial da espécie generativa (IAG) é cumprir sua missão, não importa como (sem questionamentos, ao melhor estilo “missão dada é missão cumprida”, de preferência sem falhas, julgamentos e custe o que custar em determinadas circunstâncias). Ou seja, os dispositivos hoje tidos como inteligentes na geração de textos, imagens, vozes e vídeos são programados para fazer o que lhes é proposto, gerando com agilidade e prontidão uma resposta ao prompt (comando dado), porém sem compreender exatamente o que estão fazendo, já que não são dotados de consciência, discernimento, senso crítico e/ou juízo de valor. Principalmente no momento de reconhecer se algo é certo ou errado, pois lhes faltam ainda o lado psicológico do propósito, que é a régua moral ou sentimentos de culpa ou remorso típicos dos humanos.

Isto é, até existem códigos de conduta inseridos no desenvolvimento desses sistemas já na fase inicial de programação, quando são previstas palavras-chave problemáticas que, a princípio, não deverão ser respondidas a título de controle, precaução, limite ético e “salvaguarda” de direitos, mas não no nível dos sentimentos ou das emoções que naturalmente vem a inibir ou dissuadir o agente humano de fazer algo assemelhado a um comportamento antiético, inadequado, inapropriado.

Assim, ao contrário dos humanos, nas máquinas inexiste a intencionalidade deliberada de cometer ou apresentar condutas típicas a de um crime ou à prática de iludir, enganar ou até de mentir, desinformar ou mesmo trapacear, e sim o propósito de completar uma tarefa/missão nem que seja a qualquer custo. A mentira, portanto, se diferencia de um lapso ou erro de sistema já que estes são passíveis de ocorrer dentro do ambiente de funcionamento, visto que as Inteligências Artificiais são modelos estatísticos que não preveem com certeza, mas trabalham com a probabilidade de encontrar resultados possíveis. Operam, portanto, sem apresentar um grau de deliberação, ainda que vago, típico dos humanos. Posto que nada se assemelha mais ao humano do que apresentar tais comportamentos mal-intencionados.

Quando, então, ouvimos nos noticiários que “uma IA trapaceou” [1], assemelhando-se ao comportamento humano, não foi bem isso o que aconteceu, e sim que a IA precisou encontrar uma saída para conseguir completar a tarefa/missão dada, a fim de não deixar o usuário sem uma resposta. Ainda mais quando em um teste ou numa simulação como esta não havia outra escolha/alternativa frente a dois cenários possíveis: ser desligada ou manter-se firme na sua estratégia, como foi este no caso da empresa Anthropic ao confrontar a sua inteligência artificial (Claude). O intuito não era o de deixar a IA fora de controle, ultrapassando um limiar perigoso, mas medir sua reação, antevendo como seria o comportamento da máquina (se arriscado ou não) face a uma situação extrema.

Logo, é preciso desmistificar esses episódios para, assim, evitar confusões na já complexa interação humano/máquina. Visto que os resultados são comumente distorcidos com fins mercadológicos, inflando o que determinados modelos de IA são realmente capazes de entregar, com o objetivo de vender a ideia de um produto “revolucionário”, já pronto e acabado para fazer frente à concorrência dos demais, como o ChatGPT da OpenAI e o Gemini da Google.

A exemplo dos resultados que foram divulgados no anúncio da Anthropic: em 84% das simulações o novo Claude Opus 4 foi mais frequentemente mentiroso/trapaceiro que os modelos anteriores. Ora, estamos falando de números absolutos ou relativos? Pois faz toda a diferença em termos de acurácia! Se absolutos, 84% dos testes não são suficientes para a startup entregar uma IA pronta para ser colocada no mercado e seguramente disponível ao grande público. Ao passo que, se relativos, aí sim haverá chances dessa IA corresponder às expectativas sobre o real poder e potencial do produto.

IHU – Como se diferenciam, no interior do debate sobre a IA, os conceitos de propósito e intencionalidade e como entender essas diferenças é essencial para compreender o fenômeno?

Anderson Röhe – Para entendermos melhor fenômenos crescentes como o da antropomorfização das máquinas (ou a tentativa de sua humanização), primeiro é importante diferenciar não só o propósito da intencionalidade, mas saber também como operam e quais são os limites do seu funcionamento. A Inteligência Artificial generativa (IAG), por exemplo, tem propósito, mas não tem intencionalidade, uma vez que a intencionalidade depende da existência da consciência e autoconsciência, algo que a IA (ainda) está longe de possuir.

Digo “ainda” porque enquanto existem debates na literatura especializada que dizem ser uma questão de tempo (não de se, e sim de quando a Inteligência Artificial atingirá o mesmo nível, grau ou patamar da humana), já outros são categóricos em afirmar que a Inteligência Artificial jamais irá suplantar a inteligência humana. E, por tal motivo, até pouco tempo os estudiosos da IA não atentavam para o campo dos sentimentos e das emoções, uma vez que se alinhavam àqueles que acreditam que isso nunca será possível, por mais que a cada dia aumentem as aplicações e as capacidades computacionais das inteligências artificiais não só generativas, como preditivas também.

As IAs não estão, portanto, programadas para falar a verdade, e sim comprometidas em não deixar os usuários sem uma resposta, por mais equivocada, inusitada, limitada ou distante da realidade que possa parecer. Porém, não o suficiente a ponto de querer mentir, inventar uma resposta (alucinar) ou mesmo ser capaz de trapacear, já que não consegue discernir o certo do errado (pelo menos até que você como usuário o diga, o sistema de IA registre a sua ressalva e procure corrigi-la, encontrando outra resposta da próxima vez, mais adequada que a anterior; todavia, ainda sem noção para conseguir distinguir a verdade). Sem falar que uma resposta enviesada pode mesmo advir porque é a base de dados consultada que está incompleta ou desatualizada. Sem, portanto, a intencionalidade de iludir ou enganar.

Como conclusão, o propósito da IA (e não sua intencionalidade) que é o de gerar uma resposta, por mais que apresente sinais de inteligência, aja e responda como se tivesse. Repito, a IAG não entende o significado daquilo que está escrito ou das imagens que produz, pois não tem consciência de si, nem consciência geral. São como “papagaios estocásticos” que exibem um comportamento inteligente, mas que, na realidade, só repetem frases contidas no banco de dados, escolhendo palavras de acordo com as informações probabilísticas sobre as quais se combinam, sem qualquer referência ao significado. Logo, sem entender o que escrevem ou produzem por não terem ideia do contexto no qual são proferidas.

É por isso que alguns estudiosos vão além, ao dizer que a Inteligência Artificial não é nada inteligente (posicionamento do qual discordo, por acreditar que existem outras inteligências), mas apenas finge que é, enganando as pessoas ao fazê-las acreditar que existe um ser senciente por trás de uma máquina em um processo quase que aleatório.

IHU – O que significa afirmar que IAG ultrapassou o terreno da racionalidade e expandiu-se para o campo dos sentimentos e das emoções?

Anderson Röhe – Como dito anteriormente, até pouco tempo atrás os estudiosos da IA não enveredavam para o campo dos sentimentos e das emoções, uma vez que se alinhavam à corrente literária convicta que isso nunca será possível de ser alcançado, já que as máquinas operam dentro das margens da racionalidade.

Ocorre que com o advento do ChatGPT no fim de novembro de 2022 e com o consequente aumento incremental desses sistemas, as IAs da espécie generativa passaram a se distanciar das IAs tradicionais, justamente pela capacidade de, agora, gerar conteúdos novos, deixando de ser mecanismos meramente reativos a um conjunto de informações pré-existentes em grandes bancos de dados.

Até então a questão do sentir não fazia muito sentido de ser estudada, pois esbarrava no difícil problema de sua conceituação, sobretudo pelo fato de já ser muito complexo explicar o que realmente é e sabemos sobre consciência. Logo, se entre humanos já é difícil encontrar explicações satisfatórias para conseguirmos definir consciência, imagine para aqueles que não são humanos.

Sem falar que o termo “consciência” apresenta diferentes significados para campos distintos do conhecimento, inexistindo hoje um consenso entre cientistas cognitivos, filósofos e neurocientistas. Tudo ainda depende de como a consciência é tomada, não havendo muita clareza do que é necessário para alcançá-la e quais as condições ideais para o seu desenvolvimento.

IHU – A IAG pode mentir? Qual a validade desta categoria para pensarmos esse fenômeno?

Anderson Röhe – Primeiramente, mentir é uma das características que mais nos faz humanos. Em segundo, só há mentira quando houver deliberação, intencionalidade em mentir, visto que o objetivo é enganar, fazer crer em algo que traia a realidade factual. Logo, uma vez que a IA não é dotada nem de intencionalidade, nem de consciência humana, não há de se cogitar que um ChatGPT queira enganar o usuário, ainda que esteja cada vez mais próximo dessa tal humanidade: o máximo que hoje pode fazer é emular características e comportamento humanos.

A IA está, sim, equipada para gerar respostas com agilidade e prontidão, mesmo que incompletas, imprecisas ou mesmo equivocadas, às vezes até “alucinando”, descolando-se em muito da realidade. Contudo, sem ter a menor noção do que é a verdade.

Ademais, quando o usuário formula perguntas à Inteligência Artificial do tipo generativo, esta não tem necessariamente o compromisso de dizer a verdade: não tem senso crítico entre certo e errado, ou faz juízo de valor. Nem tem consciência de si. Como modelo probabilístico que é, foi projetada para encontrar resultados possíveis, aproximando-se da verdade. Não é de se esperar, portanto, mais do que isso (a exemplo daqueles que imaginam que a IA está se tornando tão inteligente quanto os humanos e que, um dia, nos superará em capacidade cognitiva, referindo-se a uma possível AGIinteligência artificial geral. Quando, no entanto, ninguém ainda consegue definir claramente o que é AGI ou como chegaremos lá).

IHU – Em que sentido é possível pensar as IAGs como sistemas “preconceituosos” (racistas, machistas, xenófobos, etc.)?

Anderson Röhe – Estuda-se, desde a década de 1990, se os sistemas computacionais conseguem mesmo ser tendenciosos, a fim de alertar para suas ameaças à sociedade e seus potenciais impactos para as liberdades individuais e os direitos fundamentais.

Primeiramente, o preconceito humano, que é uma das questões mais comprometedoras para um bom e adequado funcionamento das IAs, comumente está nos vieses. Ocorre que os vieses muitas vezes precedem às IAs, já que contidos na base de dados.

Vieses são tendências ou inclinações sistemáticas que afetam o modo como, consciente ou inconscientemente, os humanos percebem, avaliam o cenário e, a partir daí, julgam e tomam decisões, o que em algum instante pode acarretar distorções na avaliação da realidade. Principalmente ao se saber, por meio de estudos já realizados, que quando algo dá errado e é preciso responsabilizar algo ou alguém, os humanos são muito mais implacáveis e intolerantes com as máquinas do que com outros humanos (por presumirem que aquelas são infalíveis, já que programadas para acertar, mas se esquecem que o erro é tão importante quanto os acertos nesse processo de desenvolvimento e refinamento contínuo das IAs).

Ainda mais quando a base que é utilizada para o treinamento dos algoritmos da IA revela-se tendenciosa em determinadas situações ou contextos específicos, já que alimentadas predominantemente por dados de um público masculino, de pele clara, vindos em sua maioria de um Norte Global sem as devidas diversidades socioeconômica, racial, étnica e de gênero. Ou sem a mesma representatividade cultural e regional que o nosso Sul Global. Algo que em parte explica o racismo estrutural no Brasil, fenômeno que se reflete no déficit de acurácia da maioria dos sistemas de IA preditiva de biometria e reconhecimento facial.

IHU – O que sabemos concretamente sobre os algoritmos das IAGs e o que ainda permanece como caixa preta?

Anderson Röhe – Basicamente sabemos mais sobre as entradas (inputs) do que as saídas (outputs). Em outras palavras, há mais transparência acerca dos prompts (comandos de entrada) do que dos outputs de uma Inteligência Artificial generativa como o ChatGPT, por exemplo, visto que os inputs são mais comumente descritos, revelados pelo próprio usuário. Consequentemente, há um maior grau de previsibilidade nas relações. Contudo, o mesmo não acontece com o que ocorre nas interações (dentro das camadas profundas) e menos ainda com as saídas (o produto que a IA resultou).

A defesa dos segredos industrial e comercial e a proteção da propriedade intelectual hoje servem de pretexto para se manter a caixa escura ou opacidade sobre os algoritmos. Isso ocorre não só na esfera comercial, mas também na esfera governamental (esta mais focada nas questões de defesa nacional, soberania digital e interoperabilidade – livre fluxo internacional de dados).

IHU – De que ordem são os desafios éticos e estéticos de trabalharmos com IAG no mundo atual?

Anderson Röhe – Hoje são muitos os desafios éticos e estéticos no cenário mundial, já que aos velhos problemas se somam os novos, potencializados por uma era de Inteligências Artificiais onipresentes. Mas destaco os que já estão ocorrendo, ao trazer riscos mais reais do que futuros para a sociedade.

Esses estão nos campos do rule of law (estado de direito), da defesa do estado democrático de direito e nas áreas da educação e dos direitos autorais e que se vislumbram na forma de desinformação e deepfakes cada vez mais realistas e persuasivas, o que vem comprometendo a integridade dos processos eleitorais recentes. Assim como a exposição excessiva às telas digitais vem interferindo na capacidade cognitiva dentro do aprendizado, principalmente para o desenvolvimento psicossocial entre os jovens em idade escolar. Sem deixar de mencionar os debates sobre autoria e criatividade no mundo das artes, bem como o uso das tecnologias emergentes de espionagem, monitoramento e vigilância para viabilizar regimes autoritários e maior concentração de riqueza e poder.

IHU – Quais os limites e possibilidades de pensar a IAG a partir de uma perspectiva antropomorfa?

Anderson Röhe – Quando falamos de uma “IA antropomorfa” estamos aplicando o conceito do antropomorfismo/antropomorfização à Inteligência artificial. O antropomorfismo vem a ser tendência de se atribuir características e comportamentos humanos a coisas ou a seres que não são humanos. Este fenômeno se torna particularmente potencializado na era das Inteligências Artificiais, em especial, a partir da IA generativa que produz textos, imagens, voz e vídeo ultrarrealistas e mais convincentes do ponto de vista da percepção humana a olho nu e que, quando procuram interagir como se fossem humanos, confundem e dificultam ainda mais a distinção entre fantasia e realidade. Isto ocorre sobretudo nas interações humano/máquina por meio de chatbots e assistentes virtuais de voz e vídeo que não apenas emulam a aparência humana como também se passam por nós sem os nossos conhecimento e consentimento prévios. Se antes os registros em vídeo eram a forma mais cabal de que algo existia de verdade, agora já não há mais essa certeza.

Costumo dizer que o risco maior hoje talvez não esteja no fato de o falso se passar por verdadeiro, e sim o verdadeiro se confundir com o falso. A exemplo do que acontece com as deepfakes que, diante da dúvida em serem reais ou não, acabam incutindo graus de incerteza e desconfiança ainda maiores no nosso meio social. E ao transmigrar esse fenômeno para o mundo das IAs, o perigo resida menos na ameaça da IA em se tornar humana (pois hoje ainda é inviável, já que sem comprovação científica de que possa acontecer) e mais na ameaça de os humanos serem confundidos com uma máquina ou algum outro ser que não exista ou não seja humano. Daí a necessidade crescente de haver selos e certificados de autenticidade digital, tal qual acontece com assinaturas eletrônicas e marcas d’água que ajudam a diferenciar conteúdos reais dos sintéticos.

Pensando, então, na ampla gama de possibilidades dentro desse contexto, tem-se um dilema pela frente: se, por um lado, a autenticidade digital acrescenta camadas de (ciber)segurança, proteção de dados e privacidade sob uma perspectiva de direitos, por outro, sistemas conversacionais munidos de IA podem estar não apenas aprimorando a interação humano/máquina (quando auxiliam idosos em situação de isolamento social e vulnerabilidade), como também podem estar alimentando uma “dependência emocional” jamais registrada na atual escala e velocidade de propagação. Visto que hoje há relatos frequentes de pessoas que estão fazendo o ChatGPT desde confidente e terapeuta a parceiro amoroso, uma vez que este pode até servir de ferramenta de auxílio em algum momento, mas não substituir o convívio social e a terapia em si.

Já em termos de limites, quando uma IA antropomorfa desempenha um papel cada vez mais determinante no modo como hoje se percebe, interage, confia em chatbots e assistentes virtuais para as tomadas de decisão, interferindo diretamente no nível de engajamento e satisfação do usuário, aí já é hora de traçar limites éticos e estéticos para essas máquinas “inteligentes”. Sobretudo quando empresas de tecnologia se locupletam dessa aparência humana e sensação de proximidade psicológica/emocional com uma IA antropomorfizada, visto que fomentam o vício digital no instante em que as interações parecem ser mais realistas e pessoais. Afinal, sentir empatia pelo outro é algo comum na presença de um agente bajulador que só diz amenidades na tentativa de agradar sempre.

IHU – Como agregar diversidade e pluralidade à IAG e qual a importância deste gesto?

Anderson Röhe – A meu ver, a solução envolve aplicar a questão da interdisciplinaridade no intuito de agregar maior diversidade e pluralidade à IAG. Isto é, levar em consideração não apenas disciplinas e conhecimentos diversos que tentam decifrar as Inteligências Artificiais, mas também o grau de interação e complexidade em que se relacionam.

A importância desse gesto vem não apenas de um saber ou de uma única disciplina, assim como não possui uma única procedência, como a eurocêntrica, mas sim a partir da tão propalada “tecnodiversidade” que é defendida por novos filósofos da tecnologia como Yuk Hui.

Trata-se hoje de uma visão renovada sobre tecnologia e cultura a partir das noções de “cosmotécnica” e “tecnodiversidade” disseminadas pelo filósofo de Hong Kong. Para ele, aquelas vêm em resposta ao paradigma ocidental de que a tecnologia seria um fenômeno universal, uma vez que o próprio desenvolvimento tecnológico viria de uma “progressão unidirecional acumulativa”.

No entanto, existem vias alternativas em curso, no sentido de ser possível desenvolver uma tecnologia nacional, soberana; visto que a “tecnodiversidade” põe em xeque essa premissa universalista de que inexistem outros caminhos e modelos a seguir ou em que se espelhar. Como se a tecnologia fosse única e não houvesse “cosmotécnicas” que diferem umas das outras em seus “valores, epistemologias e formas de existência”. Ou seja, tecnologias que podem ser desenvolvidas em contextos locais, particulares e que, no fim, trariam soluções para as atuais crises social, política e planetária.

IHU – Deseja acrescentar algo?

Anderson Röhe – Deixo a mensagem de que não é nova a tendência de se atribuir desde sentimentos e emoções a características e comportamentos humanos a coisas e a seres que não são humanos; um fenômeno para a psicologia conhecido como antropomorfismo ou antropomorfização. Este que se potencializa na era das Inteligências Artificiais cada vez mais realistas e convincentes para um cidadão comum. Em outras palavras, no instante em que as máquinas emulam aparência mais humana e transmitem a sensação de proximidade psicológica, é aí que lhe ganham a confiança, formando um vínculo emocional poderoso entre humano e máquina. Pois, quando se percebem as máquinas mais humanas do que verdadeiramente são, é que devemos ficar atentos para os possíveis riscos advindos dessa “humanização”. Principalmente quando já não é mais possível distinguir bem a ficção da realidade.

Nota 

[1] TEIXEIRA, Pedro S. Engenheiros resolveram testar se a IA aceitaria ser desligada. E aí o robô resolveu chantageá-los. Folha Uol, 3 jun. 2025. Disponível aqui.

Referências

RÖHE, Anderson. A Antropomorfização da Inteligência Artificial: como e por que humanos julgam as máquinas. In: SANTAELLA, Lucia. O mal-estar da cultura - revisitado: algoritmos do mal-estar. São Paulo: Estação das Letras e Cores, 2024. p. 183-199.

RÖHE, Anderson; SANTAELLA, Lucia. Inteligências artificiais na educação: detecção de emoções e avaliação de desempenho. In: HESSEL, Ana Maria Di Grado; ARRUDA, Heloísa Paes de Barros (Org.) Inteligência artificial em debate: perspectivas no cenário do conhecimento. Cachoeirinha: Ed. FI, 2024. p. 75-91.

RÖHE, Anderson; SANTAELLA, Lucia. Confusões e Dilemas da Antropomorfização das inteligências artificiais. TECCOGS – Revista Digital de Tecnologias Cognitivas, n. 28, 2023, p. 67-75. Disponível aqui.

RÖHE, Anderson; ZANONI, Anna Paula. Painel: Antropomorfização da tecnologia e seus impactos nas nossas mentes e corações. Festival Futuros Possíveis 2024: O fim das certezas. Casa Firjan, 25 e 26 out. 2024. Disponível aqui; Painel completo no YouTube

Leia mais