05 Mai 2026
"Os grandes modelos de linguagem (LLMs) imitam a comunicação humana sem serem humanos. Formulam a fé sem crer. São um espelho de padrões linguísticos humanos e, portanto, instrutivos, úteis e ao mesmo tempo limitados. O futuro do trabalho eclesial se decide, por isso, não apenas pela tecnologia, mas sobretudo pela competência midiática e em IA das pessoas que o moldam".
O artigo é de Verena Kriest, jornalista do medienkompetenz CONNECT, publicada por katholisch.de, 03-05-2026.
Eis o artigo.
Para o Papa Leão XIV, o trato com a inteligência artificial é a questão social do nosso tempo. Na própria Igreja, a IA já chegou — planejada ou como "IA sombra". O que fazer? Oferecemos dicas para a prática.
As ferramentas de IA se difundem em um ritmo que sobrecarrega as instituições. Enquanto os órgãos deliberativos ainda debatem, na educação e no secretariado as ferramentas de IA já são usadas regularmente. Assim surge uma IA sombra, como se denomina o uso não autorizado e não regulamentado de ferramentas de IA dentro de uma organização.
Enquanto a IA abre novas oportunidades, ela também coloca as instituições e comunidades eclesiais diante de desafios complexos — e igualmente àqueles que as utilizam diariamente. Algumas dioceses desenvolvem atualmente suas próprias soluções de IA. Ali se observa que parte dos funcionários tem atitude refratária ao uso de ferramentas de IA. A causa frequente é a reputação das ferramentas como "exterminadoras de empregos", mas também a responsabilidade não clara diante de resultados incorretos ou simplesmente a falta de confiança. Com frequência, porém, a incerteza no uso e a falta de conhecimento desempenham um papel importante. Equilibrar competência e reflexão com o ritmo do uso — incluindo a todos — permanece a tarefa desafiadora.
Tarefa da formação midiática eclesial
É exatamente aqui que a formação midiática e em IA da Igreja pode atuar. Não se trata de demonizar a tecnologia ou celebrá-la sem reservas, trata-se de criar uma base de decisão. Onde a tecnologia pode simplificar, apoiar ou acelerar fluxos de trabalho? Onde serve ao ser humano? E onde residem riscos éticos, jurídicos ou técnicos que não podem ser completamente avaliados?
Os campos de aplicação na Igreja vão de tarefas práticas do cotidiano até áreas teológica e pastoralmente sensíveis. Em comunicação e relações públicas, os assistentes de IA já são algo normal. Eles redigem notas à imprensa, apoiam na criação de publicações nas redes sociais ou resumem textos longos. Precisamente aqui, assim como no campo da arte e da música geradas por IA, coloca-se a questão da autoria e dos direitos autorais.
Na educação, ferramentas de IA são usadas para criar material didático diferenciado, formatos de quiz para o ensino de religião ou tarefas de avaliação. Fica mais sensível na pastoral. Algumas dioceses experimentam chatbots em seus sites como ponto de contato fora do horário de expediente ou para apoio à assistência espiritual por telefone. Aqui se discute intensamente em que medida uma oferta que simula proximidade humana é eticamente aceitável.
O que precisamos saber
Quanto mais se usa a IA, mais claramente se revelam riscos estruturais e questões urgentes no contexto eclesial. A proteção de dados permanece um dos temas mais relevantes: quem entrega a sistemas de IA comerciais anotações de aconselhamento espiritual, listas de primeira comunhão ou dados de grupos vulneráveis pode estar liberando-os para reprocessamento. As instituições eclesiais têm, além da proteção legal de dados, responsabilidade moral perante as pessoas que confiam na instituição religiosa.
Os direitos autorais são outro campo minado do qual muitos usuários não têm consciência. Geradores de imagens por IA como Midjourney, DALL-E ou Stable Diffusion foram treinados em milhões de imagens protegidas por direitos autorais, frequentemente sem o consentimento dos autores. Quem usa essas ferramentas para criar imagens para o boletim paroquial, para o site diocesano ou o programa da missa, move-se em uma zona cinzenta jurídica e ética. Acresce que muitas imagens geradas por IA reproduzem concepções ocidentais-eurocêntricas e difundem linguagens visuais unilaterais.
Os modelos de linguagem são máquinas de probabilidade. Geram textos que soam plausíveis, mas não necessariamente verdadeiros. Quando um assistente de IA formula um sermão, responde a uma questão teológica ou recomenda um versículo para um batizado, faz isso com base em padrões estatísticos nos dados de treinamento — não a partir de experiência de fé, intenções de oração ou responsabilidade teológica.
Dicas práticas
Nenhum dado pessoal ou sensível em sistemas de IA públicos. Dados sensíveis não pertencem ao ChatGPT, Gemini ou serviços comparáveis. Esses sistemas armazenam entradas por padrão e as usam, dependendo das configurações, para o treinamento posterior. Quem precisa de dados sensíveis deve recorrer a soluções de IA locais.
Observar as questões de direitos autorais. Ao usar geradores de imagens, as instâncias eclesiais devem antes esclarecer: que licença se aplica às imagens geradas por IA segundo os termos de uso do provedor? Quem é considerado autor — a pessoa que inseriu o prompt, ou ninguém? Recomendável: usar plataformas de imagens livres de licença como "Unsplash" ou "Pixabay", empregar fotos próprias ou ler cuidadosamente os termos de uso de cada plataforma de IA.
Textos de IA sempre revisar, nunca publicar sem filtro. Os modelos de linguagem alucinam. Inventam versículos bíblicos, citam erroneamente os Padres da Igreja, confundem anos e fornecem fontes falsas. Todo texto gerado deve ser verificado e revisado antes da publicação. A IA é uma ferramenta de rascunho, não uma redatora. A responsabilidade sobre o conteúdo permanece inalterada com o ser humano. Quem terceiriza completamente a preparação de sermões ou apresenta textos de IA sem questionamento como reflexão própria perde o núcleo da responsabilidade pessoal e eclesial. A IA pode dar inspiração e acelerar rascunhos. Mas ela não pode sentir, duvidar nem crer.
Aplicações pastorais apenas com limites claros. O acompanhamento espiritual pode ser apoiado por bots de IA como orientadores. Mas não podem ser apresentados como substitutos do acompanhamento humano. Todo chatbot eclesial deve oferecer um redirecionamento proeminente para interlocutores humanos reais e comunicar claramente que é um sistema automático, não um ser humano qualificado.
Formular regras internas de uso. Paróquias e instituições eclesiais devem formular uma diretriz simples para o uso da IA: quais ferramentas são permitidas? O que está proibido? Quem é responsável pelas consultas? Uma tal regulamentação protege os funcionários e cria segurança.
Atentar para a diversidade e a linguagem visual. Os geradores de imagens por IA reproduzem padrões estatisticamente frequentes em seus dados de treinamento. Isso significa: Jesus aparece geralmente branco e europeu, os santos seguem a iconografia ocidental, os fiéis são jovens e saudáveis. Quem usa imagens de IA para a comunicação eclesial deve contrabalançar ativamente isso por meio de prompts precisos que exijam diversidade, seleção editorial e reflexão crítica das imagens geradas.
Participar do discurso social. As instituições eclesiais têm voz nas questões de ética e dignidade humana e são convocadas a erguê-la. O Papa Leão XIV colocou conscientemente sua escolha de nome na tradição de Leão XIV e sua encíclica social Rerum Novarum, como sinal de que a revolução da IA suscita questões sociais igualmente profundas às da industrialização. A Igreja compreende essa questão como tarefa essencial.
Os grandes modelos de linguagem (LLMs) imitam a comunicação humana sem serem humanos. Formulam a fé sem crer. São um espelho de padrões linguísticos humanos e, portanto, instrutivos, úteis e ao mesmo tempo limitados. O futuro do trabalho eclesial se decide, por isso, não apenas pela tecnologia, mas sobretudo pela competência midiática e em IA das pessoas que o moldam.
Leia mais
- "Para a Igreja, a nova questão social é a inteligência artificial", segundo Leão XIV
- Leão XIV pede aos padres que não usem IA para escrever homilias ou buscar curtidas no TikTok
- Assim a Igreja pode contribuir para traçar o futuro da inteligência artificial. Artigo de Ilaria Solaini
- Como o Papa Leão pode desafiar as grandes multinacionais da IA
- Da Revolução Industrial à revolução da IA: a aliança histórica entre Leão XIII e Leão XIV. Artigo de Marcos Aurélio Trindade
- CELAM lança documento sobre inteligência artificial com enfoque pastoral
- Papa Francisco no G7: “A inteligência artificial é um instrumento fascinante e tremendo”
- Apelo de Roma por uma ética da inteligência artificial
- “Para o Papa Francisco, a inteligência artificial é uma questão social”. Entrevista com Paolo Benanti
- O Papa aos sete grandes: “A IA não deve tornar-se um instrumento de guerra”
- G7: por que o Papa Francisco está se interessando pela inteligência artificial
- Arcebispo de Canterbury subscreve o “Apelo de Roma para a Ética da Inteligência Artificial”
- O que o Vaticano sabe sobre IA? Muito, na verdade
- Vaticano, governo, Microsoft, IBM e Fao. Nasce a carta ética para a inteligência artificial
- Algorética: os valores atemporais da religião e sua contribuição insubstituível para o desenvolvimento humano e pacífico da inteligência artificial. Artigo de Paolo Benanti
- Por dentro da inteligência artificial, um espaço para a algorética de Francisco. Artigo de Paolo Benanti
- “Diante do caráter invasivo da hipertecnologia, é urgente colonizá-la com o humanismo”. Entrevista com Vincenzo Paglia