13 Mai 2026
A inteligência artificial (IA) está se tornando cada vez mais presente no cotidiano: as pessoas confiam seus sofrimentos emocionais a modelos de linguagem, e softwares permitem que os mortos aparentemente continuem conversas. Qual o papel da perspectiva ética nesse contexto? Elmar Nass é professor de Ciências Sociais Cristãs e Diálogo Social na Universidade de Teologia Católica de Colônia (KHKT). Em entrevista ao katholisch.de, ele discute questões urgentes e como elas devem influenciar a pesquisa e o desenvolvimento.
A reportagem é de Christoph Paul Hartmann, publicada por katholisch.de, 12-05-2026.
Eis a entrevista.
Sr. Nass, o senhor deseja escapar do dilema da ética estar atrasada em relação ao desenvolvimento tecnológico e, inversamente, desbloquear o potencial inovador da ética no campo da IA . Como pretende fazer isso?
A ética oferece uma perspectiva única que tem sido amplamente negligenciada em muitos debates sociais. As pessoas hoje enfrentam inúmeros dilemas e buscam orientação. Esses dilemas não podem ser resolvidos com simples equações matemáticas ou programas políticos – a crise da COVID-19 demonstrou isso claramente, já que muitas regulamentações foram simplesmente impostas sem discussão. Precisamos de uma bússola ética baseada em fatos. É aí que reside o aspecto inovador: questionar os limites da IA, as consequências de sua aplicação para nossa compreensão da humanidade, nossa coexistência e nossa responsabilidade.
A IA é um campo amplo – desde aplicativos de mapas até modelos de linguagem. Quais perguntas você considera particularmente relevantes nesse contexto?
Precisamos examinar onde as fronteiras entre humanos e máquinas se tornam tênues: por exemplo, por meio de robôs de assistência com os quais idosos desenvolvem relações de confiança. Mas onde está a diferença? A dignidade humana também se aplica aos robôs? Além disso, trata-se de colegas ou superiores na esfera profissional que não são humanos, mas sim IAs – por exemplo, em hospitais ou escolas. Quem decide por quem, quem deve se submeter e quem é responsável pelos erros? Há também a questão do luto: porque a IA pode tornar o falecido aparentemente questionável em realidades virtuais . Então, como lidamos com nossa própria mortalidade e com a morte? Ainda é possível se reconciliar com um parente três dias após o falecimento? Trata-se de consciência e responsabilidade em relação à própria vida.
Que respostas você pode dar a esses conjuntos de perguntas?
Primeiro, uma observação geral: existem aplicações boas, até mesmo muito boas, para a IA; ela não é inerentemente ruim. Depende de quando e como a utilizamos. Em profissões sociais, por exemplo, a IA pode aliviar a carga de trabalho dos funcionários, mas não pode substituir as relações humanas. É por isso que também precisamos ser mais sensíveis com a nossa linguagem: os computadores nunca são "inteligentes" ou "autônomos". Isso sugere que a tecnologia se comporta como um ser humano. Mas não se comporta; ela apenas processa dados. Também precisamos deixar claro o seguinte: a IA não é um ser humano, não é uma pessoa, não tem alma nem moral. Portanto, a tecnologia não pode oferecer ética. Também não pode julgar. Algumas pessoas confiam tudo sobre suas vidas íntimas a um modelo de linguagem e confiam cegamente nele. A IA não pode julgar como um ser humano – é por isso que esse comportamento é perigoso, inclusive para a democracia, quando a IA nos apresenta soluções políticas supostamente óbvias. A IA não deve substituir o parlamento. Precisamos estar cientes de tudo isso.
Modelos linguísticos já aconselharam jovens a cometer suicídio. Qual deve ser a consequência de suas conclusões?
Felizmente, essas abordagens equivocadas foram evitadas pela tecnologia. De modo geral, gostaria de ver as empresas integrarem a perspectiva ética à pesquisa e ao desenvolvimento de IA desde o início. Não deveria haver mais uma dicotomia entre desenvolvimento tecnológico e questões éticas, onde a ética é sempre a voz dissonante, tentando impedir o progresso. Em vez disso, as questões sobre as consequências para a humanidade e a sociedade devem ser consideradas desde o princípio. Trata-se de uma filosofia da tecnologia que faça parte do processo. Também espero que empresas e políticos se engajem em uma discussão ética mais ampla. Não pode ser apenas sobre proteção de dados, privacidade ou aceitação da IA. Isso é importante, mas não é suficiente. Precisamos de um diálogo mais profundo. Trata-se da humanidade como um todo – e alguns medos e reservas são, de fato, justificados. Qualquer outra coisa é uma discussão pseudoética que, na realidade, gera ferramentas de marketing.
Que papel desempenha aqui uma perspectiva especificamente cristã e católica?
No campo da ética, existem muitas abordagens diferentes que se distinguem em três dimensões: a imagem da humanidade, da coexistência humana e o conceito de responsabilidade. É aqui que os modelos utilitaristas, kantianos e da ética discursiva — bem como os cristãos — divergem. Cada um contribui com suas próprias respostas, o que deve ser acolhido no espírito do pluralismo. A ética cristã, em particular, tem a responsabilidade, nesta discussão, de colocar a questão da imagem da humanidade no centro e de combater uma superficialidade ética. Da imagem cristã da humanidade surgem perspectivas sobre relacionamentos e confiança, bem como sobre a morte. Pois somente os humanos podem ter relações humanas; os mortos são para sempre separados dos vivos. Se uma IA tenta minar esses fatos, trata-se de um engano perigoso. Assim, a perspectiva cristã é um desafio bem-vindo e um estímulo para o debate, desde que os representantes de todas essas escolas de pensamento se levem a sério.
No Vale do Silício, muitos profissionais são libertários e, em geral, têm pouca consideração pela ética. Isso não mina a base do respeito mútuo?
Uma ética libertária ainda é uma ética. Ela também se baseia em visões de humanidade, sociedade e responsabilidade. O que importa é o diálogo, no qual todos que aderem às regras do discurso têm permissão para falar. As coisas se tornam interessantes quando alguém se recusa a participar desse diálogo. Então, a ética cristã deve buscar aliados entre outros atores que — ainda que por razões diferentes — compartilham valores semelhantes. Juntos, devemos combater essa recusa em se engajar no diálogo e na ética. Temos a responsabilidade de levantar nossas vozes e alertar sobre as consequências do transhumanismo, da expansão dos limites humanos por meio da tecnologia ou do desenvolvimento desenfreado.
A Igreja está fazendo o suficiente? O Papa Leão XIV alertou sobre as consequências da IA para os relacionamentos interpessoais e se opôs aos sermões gerados por IA . Isso basta?
Vejo alguns sinais de que a Igreja está levando o tema da IA a sério. Há algumas pesquisas sendo feitas, e não é só o Papa. No entanto, tudo ainda não é concreto o suficiente. Não basta dizer: "A humanidade deve estar no centro". Isso são clichês. O que precisamos é de uma posição clara, uma orientação clara, limites claros. Gostaria de ver uma posição baseada no cristianismo que defina os limites e as oportunidades. Ainda não avançamos o suficiente nesse sentido. Precisamos de uma equipe interdisciplinar que possa abordar essas questões de forma concisa e clara. Mas é preciso sempre deixar claro: de onde viemos, como cristãos, – o que determina nossa imagem da humanidade? Não devemos simplesmente emitir declarações; precisamos tornar nossos argumentos transparentes. Só assim eles poderão ser integrados ao debate com outras perspectivas.
Leia mais
- Pensar a IA eticamente é refletir sobre o tipo de humanidade que queremos construir para o futuro. Entrevista especial com Steven S. Gouveia
- Lavender, a inteligência artificial de Israel que decide quem é bombardeado em Gaza
- Uma IA mais ética?
- Armas transformadas em máquinas letais não podem decidir sobre a vida e morte
- O futuro da IA e o seu impacto no conhecimento: mudará a forma como pensamos?
- Inteligência artificial: substituição, hibridização… progresso?
- A potência e a ameaça das redes neurais
- Inteligência Artificial é uma ferramenta muito útil, mas não é inteligente. Entrevista especial com Walter Carnielli
- E se a inteligência artificial decidisse quem deve ser salvo na guerra?
- Harari alerta sobre a inteligência artificial: “Não sei se os humanos podem sobreviver”
- O cientista da computação Manuel Blum: "E se as máquinas tivessem uma consciência?"
- A inteligência artificial não precisa de inteligência: o pensamento de Luciano Floridi
- Inteligência Artificial e Saúde: para todos ou para quase ninguém?
- “Ética da inteligência artificial”, novo livro de Luciano Floridi
- A perigosa aliança da inteligência artificial com a tecnologia militar. Artigo de Claude Serfati
- Inteligência artificial, desafio ético. Entrevista com Paolo Benanti
- Éric Sadin alerta contra a “propagação de um anti-humanismo radical”
- “A IA é desenvolvida em sociedades que desvalorizam os pobres”. Entrevista especial com Levi Checketts
- A sede do capitalismo de vigilância. Artigo de Dafne Monteiro de Carvalho Freire
- A inteligência artificial e o desafio para o mundo do trabalho
- Inteligência Artificial: “A autonomia está em perigo e isto é ruim para a democracia”. Entrevista com Adela Cortina
- "A IA é mais do que uma revolução tecnológica, sua mudança é tão profunda que está moldando uma nova maneira de ser". Entrevista com Alberto Embry
- A curva de aprendizagem da inteligência artificial está em risco: a sua ânsia por dados é infinita, mas não as obras humanas
- O ChatGPT e uma inteligência artificial cada vez mais humana
- OpenAI agora diz que teria sido “impossível” treinar ChatGPT sem violar direitos autorais
- O ChatGPT veio para ficar no ensino superior? Não se os professores resistirem. Artigo de LuElla D’Amico
- Como a IA e o Google ameaçam devastar a web
- “A única neutralidade real seria me desligar”. Entrevista com DeepSeek
- DeepSeek, China e IA: Um desafio geopolítico. Artigo de Cecília Rikap
- Fenômeno DeepSeek: Como a transparência está revolucionando a Inteligência Artificial. Artigo de Jonatas Grosman