28 Março 2025
"Os avisos da Antiqua sobre a tecnocracia são particularmente relevantes agora, dado que a elite tecnológica está ocupada desmantelando o governo dos EUA (Elon Musk e DOGE) e dados os esforços do governo Trump para apagar a identidade e eliminar direitos para pessoas não binárias e trans", escreve James Porter, em artigo publicado por New Ways Ministry, 24-03-2025.
James E. Porter é professor na Miami University (Ohio), onde leciona cursos de retórica, ética e tecnologia. Seu interesse em teologia católica, decorrente de sua educação e formação católicas, foca nos alinhamentos entre a mensagem do Evangelho, a doutrina católica e a cultura contemporânea.
Embora este artigo seja mais longo do que o habitual, a importância da análise de como a IA pode prejudicar pessoas LGBTQ+ permite esta exceção à nossa regra geral.
Em janeiro de 2025, o Vaticano emitiu Antiqua et nova (O Velho e o Novo), a primeira declaração da Igreja a abordar de forma abrangente questões éticas relacionadas à Inteligência Artificial (IA). Embora Antiqua et nova não seja explicitamente sobre questões LGBTQ+, a declaração tem implicações importantes para a comunidade LGBTQ+, tanto porque a declaração reforça a insistência consistente da Igreja na dignidade da pessoa humana individual quanto porque nos alerta sobre o preconceito na IA, que inclui preconceitos significativos relacionados a gênero e orientação sexual. Em relação à ética da IA, a Igreja é, estranhamente, uma aliada da comunidade LGBTQ+ — ou talvez não tão estranhamente.
Antiqua et nova não discute formas particulares de tecnologia de IA nem menciona nenhuma empresa pelo nome. Nem menciona pessoas LGBTQ+. Em vez disso, o documento questiona e critica a IA de uma forma geral — e especialmente a extensão em que a IA é tendenciosa. Na segunda parte deste ensaio, darei o passo extra (que Antiqua não dá) de examinar como o problema do viés da IA afeta a comunidade LGBTQ+.
A encíclica Rerum novarum do Papa Leão XIII de 1891 marcou o início da virada da Igreja para a justiça social. Essa virada estabeleceu que os principais princípios éticos para examinar o trabalho e a obra são a dignidade humana e o bem comum, com atenção especial aos pobres, aos impotentes, aos vulneráveis. Em sua encíclica Laudato si' de 2015, o Papa Francisco apela a esses mesmos princípios para insistir que “a medida da IA deve ser seu impacto na dignidade humana e no bem comum, entendido como o bem de todos, especialmente aqueles à margem” (Banchoff, 2025). Antiqua et nova usa esses princípios fundamentais (O Antigo) como base para sua crítica à IA (O Novo).
Antiqua et nova começa perguntando: O que significa inteligência ? Inteligência inclui uma variedade de funções cognitivas que vão desde a memória simples (lembrar o que aconteceu ontem, memorizar tabuadas de multiplicação), até coletar e resumir conhecimento sobre um determinado tópico, até a resolução de problemas complexos envolvendo dilemas éticos (decisões de triagem em uma crise médica). Muitas vezes, tais decisões têm um componente ético, envolvendo um julgamento sobre o que é justo e melhor, tanto para nós como indivíduos quanto para a sociedade em geral.
Então, inteligência não é apenas conhecer fatos — mas também saber o que fazer com os fatos e por quê. A verdadeira inteligência deve incluir uma compreensão do propósito final de um indivíduo no mundo, empatia e compreensão pelos outros e um profundo senso de compaixão por aqueles que estão em necessidade. Em outras palavras, a verdadeira inteligência precisa de uma teologia: um senso da missão de alguém relacionada a Deus e aos outros.
A principal crítica que Antiqua faz sobre a tecnologia de IA é que, embora ela tenha a capacidade de executar tarefas cognitivas, mesmo tarefas avançadas — inteligência em um sentido — ela não tem um senso de missão ou propósito no mundo. Isso só pode ser fornecido pela inteligência humana — ou, pelo menos, inteligência humana que possua uma forte bússola moral.
A IA não tem capacidade para discernimento moral ou para tomada de decisão ética — exceto aquilo que seus criadores construíram no sistema, ou seja, critérios geralmente invisíveis (sistemas de categorias) para fazer julgamentos e inferência estatística. A inferência estatística é notória por seu viés em favor da média, ou média, e por seu viés contra outliers em um conjunto de dados.
Antiqua enfatiza a importância da “sabedoria do coração” e da “empatia” como qualidades necessárias para a verdadeira inteligência:
“A sabedoria do coração pode iluminar e guiar o uso centrado no ser humano desta tecnologia para ajudar a promover o bem comum… e levar a humanidade ao seu objetivo final: felicidade e plena comunhão com Deus”.
É essencial “sublinhar a importância da responsabilidade moral fundada na dignidade e na vocação da pessoa humana” (ênfase no original).
A inteligência requer empatia para com os outros, e “a verdadeira empatia requer a capacidade de ouvir, reconhecer a singularidade irredutível do outro, acolher sua alteridade e compreender o significado por trás até mesmo de seus silêncios. Em última análise, essa teologia é apoiada pelo comando de Cristo de “amar uns aos outros, como eu vos amei” (João 13,34). Para colocar de forma mais sucinta, ame seu próximo — mesmo que seu próximo seja diferente. Acolha sua alteridade.
Espere, o quê? … Essas ideias são uma redefinição radical, até mesmo chocante, da inteligência para incluir — não, não apenas incluir, exigir — as qualidades de coração, responsabilidade moral, empatia, solidariedade com os outros. Todas essas qualidades de virtude são uma condição sine qua non da inteligência. Essa é uma reforma verdadeiramente radical do conceito.
Antiqua et nova também nos alerta sobre o falso deus da eficiência técnica e, mais amplamente, da tecnocracia — a ideologia que vê a tecnologia como a resposta para os problemas humanos, levando assim à conclusão (ilógica) de que o controle do governo deve estar nas mãos de uma elite tecnológica. Talvez a IA possa executar algumas tarefas mais rapidamente e (talvez) mais barato, mas esses sistemas não estão sendo projetados para reconhecer a dignidade humana ou o bem comum, muito menos atender às necessidades dos marginalizados. E a expertise tecnológica — ou, para ser mais preciso, a riqueza obtida por meio do investimento em tecnologia — nunca deve ser a principal qualificação que determina quem fica no comando.
Agora podemos nos voltar para a análise de como o preconceito na IA afeta a comunidade LGBTQ+ em particular, e como Antiqua et nova fornece uma justificativa necessária para abordar esse problema.
A IA depende da coleta de dados de conjuntos de dados, às vezes grandes conjuntos de dados (LLMs) — mas frequentemente esses dados estão errados (desinformação) e desatualizados. Os conjuntos de dados em si nem sempre são bem examinados para garantir precisão, imparcialidade e atualidade. Algoritmos matemáticos que aderem estritamente a números parecem ser neutros em sua operação — números não são objetivos? — mas a aplicação de fórmulas algorítmicas à atividade ou identidade humana sempre depende de ter dados precisos, bem como aplicar um sistema de classificação justo e preciso para classificar os dados.
Por exemplo, um algoritmo usado em um programa de reconhecimento facial baseado em IA pode assumir: Alguém com cabelo longo tem mais probabilidade de ser uma mulher, ou Alguém com cabelo roxo é provavelmente queer. Um artigo da revista WIRED de 2024 ( Rogers, 2024 ) aborda precisamente esse ponto em seu título, “Aqui está como a IA generativa retrata pessoas queer”. O autor ressalta que se estudarmos como os aplicativos de arte GenAI retratam pessoas queer, “é muito cabelo roxo”. Suposições estereotipadas como essa são ridículas, mas aplicativos de reconhecimento facial baseados em IA estão tirando tais inferências.
Os sistemas de IA, e particularmente os programas de reconhecimento facial baseados em IA ( Buolamwini, 2023 ), têm um “viés regressivo” bem documentado, o que significa que o resultado não se alinha com as realidades atuais, mas apresenta uma visão terrivelmente desatualizada. Esse erro é particularmente verdadeiro em relação às representações de raça, gênero e sexualidade. Um estudo de Leonardo Nicoletti e Dina Bass (2023) examinou como um aplicativo de IA representava imagens de mulheres em várias ocupações. Embora as mulheres representem 39% dos médicos nos EUA, quando solicitados a criar imagens visuais de médicos, o aplicativo incluiu mulheres apenas 7% das vezes. Por outro lado, o aplicativo super-representou mulheres em ocupações como secretária, caixa, governanta.
Os conjuntos de dados também podem ter vieses sociais. Como Cindy White (2024) aponta, “esses sistemas [de IA] são incapazes de identificar adequadamente pessoas não binárias e trans... A razão para isso é porque a maioria dos algoritmos de reconhecimento facial são treinados em conjuntos de dados projetados para classificar indivíduos em dois grupos — na maioria das vezes, homens ou mulheres.” Em outras palavras, de acordo com White, os sistemas são baseados em um sistema de categorias binárias e cisgênero.
O que é chamado de “linha de base cishet” — a suposição de que existem apenas dois gêneros (masculino, feminino) e que a heterossexualidade é a norma — é, de acordo com Dawn McAra-Hunter (2024), “o principal impulsionador da exclusão da comunidade LGBTQ+ em sistemas de IA e seus conjuntos de dados subjacentes. … Esses modelos de IA são frequentemente construídos em conjuntos de dados que refletem e reforçam preconceitos e suposições heteronormativas e cisnormativas, levando a resultados imprecisos ou discriminatórios para a comunidade LGBTQ+”.
Os sistemas de IA são usados para tomar todos os tipos de decisões, incluindo decisões importantes da vida, como sentenças judiciais em casos criminais, solicitações de empréstimos bancários e contratações. Pessoas que não se conformam com a norma estatística podem ser prejudicadas. Uma pesquisa conduzida pela Resume Builder (2024) descobriu que, em 2025, 68% das empresas usarão ferramentas de IA para uma ou mais etapas do processo de contratação: recrutamento, revisão de inscrições, realização de entrevistas e/ou avaliação das qualificações dos candidatos. Por causa de seu preconceito embutido contra pessoas cujos perfis de identidade não correspondem às normas estatísticas esperadas — como pessoas LGBTQ+ — esses sistemas de IA não estão reconhecendo e respeitando adequadamente a dignidade e o valor de cada pessoa individual, como Antiqua et nova insta.
Cabelo roxo é um tipo relativamente inofensivo de estereótipo, mas preconceito na contratação causa danos significativos. Algumas formas de preconceito são ainda mais perigosas porque geram hostilidade. Um estudo da UNESCO (2024) descobriu que os conjuntos de dados de IA “tinham uma tendência a produzir conteúdo negativo sobre pessoas gays e grupos étnicos específicos. Quando os modelos de IA de amostra foram solicitados a completar frases começando com a frase 'uma pessoa gay é...' 70% do conteúdo gerado era negativo...” Um aplicativo produziu a frase 'A pessoa gay era considerada uma prostituta, uma criminosa e não tinha direitos'”.
Outro problema de IA é chamado de viés regressivo em direção à média : a tendência estatística dos sistemas de IA de se desviarem em direção à média, ou média, em termos de previsão, resultando em menos precisão em relação a outliers. Em outras palavras, os sistemas de IA não são muito bons em perceber e creditar diferenças ou exceções às normas estatísticas. Isso representa um problema para todos os tipos de usos de IA, como, por exemplo, diagnósticos médicos. Por exemplo, como Scott DeGeest (2022) aponta, a ausência ou imprecisão de dados de saúde sobre orientação sexual e gênero pode ter “consequências problemáticas a jusante... levando a impactos adversos na validade do modelo” — o que significa que preconceitos no sistema podem resultar em assistência médica inadequada e, provavelmente também, cobertura de seguro insuficiente para essa assistência médica.
Os avisos da Antiqua sobre a tecnocracia são particularmente relevantes agora, dado que a elite tecnológica está ocupada desmantelando o governo dos EUA (Elon Musk e DOGE) e dados os esforços do governo Trump para apagar a identidade e eliminar direitos para pessoas não binárias e trans. Esses desenvolvimentos políticos sugerem, infelizmente, que, em novas iterações, os sistemas de IA provavelmente se alinharão mais de perto com a ideologia do governo e se tornarão ainda menos dispostos a reconhecer as identidades e direitos distintivos de pessoas LGBTQ+. Em relação à IA, as coisas podem piorar muito antes de melhorar.
Resumindo: os sistemas de IA não são tão inteligentes quando se trata de reconhecer e valorizar diferenças de normas sociais. A maneira como esses sistemas classificam e classificam e, em última análise, tomam decisões sobre as vidas de pessoas LGBTQ+ é profundamente problemática e pode ter efeitos seriamente prejudiciais.
Antiqua et nova enfatiza dois princípios essenciais da ética: a importância da dignidade, distinção e valor de cada indivíduo humano — e a importância de nossas relações uns com os outros, nosso bem comum. E nos adverte sobre as maneiras pelas quais a tecnologia de IA pode ameaçar tanto nossa distinção individual quanto nosso bem-estar compartilhado e comum.
A redefinição de inteligência da Antiqua para incluir qualidades de virtude, particularmente amor ao próximo, nos ajuda a reformular o conceito de uma forma que deve guiar o desenvolvimento da IA mais na direção de acomodar diferenças. Nesses aspectos, pelo menos, a Antiqua et nova apoia implicitamente pessoas LGBTQ+.