05 Novembro 2024
Três tradições cristãs se reuniram, de 12 a 15 de agosto, em Seattle, nos Estados Unidos, para iniciar formalmente uma esperada conversa sobre o papel da inteligência artificial na Igreja e na sociedade: a Igreja Episcopal (TEC, na sigla em inglês), a Igreja Presbiteriana (PCUSA, na sigla em inglês) e a Igreja Evangélica Luterana dos Estados Unidos (ELCA, na sigla em inglês).
O comentário é de Dave Hackett e Daren Erisman, publicado em AI and Faith, 31-10-2024. A tradução é de Moisés Sbardelotto.
É importante ressaltar que essa foi a primeira vez que as lideranças dos escritórios de inovação de cada denominação e líderes escolhidas das Igrejas se encontraram pessoalmente para focar nesse tópico tão abrangente.
Combinando palestrantes e convidados católicos, ortodoxos, metodistas e evangélicos, a conferência forneceu uma perspectiva excepcionalmente ampla. Essa amplitude incluiu a presença do Frei Paolo Benanti, frade franciscano e consultor-chave do Vaticano em relação à ética da IA.
Também incluiu uma sessão matinal realizada nos escritórios da Microsoft, que envolveu uma sessão de perguntas e respostas com Daniel Kluttz, diretor-sênior de usos sensíveis e tecnologias emergentes do Escritório de IA Responsável da Microsoft.
Ao longo do evento, graciosamente acolhido pela Paróquia da Epifania, em Seattle, a empolgação cresceu junto com a convicção de que abordar a inteligência artificial com suas implicações éticas, teológicas e eclesiológicas requer expertise que nenhum órgão eclesial consegue abordar completamente.
Embora tenham sido levantadas mais perguntas do que respostas, houve muito aprendizado compartilhado e um senso comum conclusivo: devemos continuar promovendo essa conversa juntos. Aqui estão alguns destaques.
Bob Johansen começou a conversa de quatro dias com uma perspectiva futurista, conceituando a inteligência artificial como uma ampliação para os humanos.
Pesquisador sênior do Instituto para o Futuro (IFTF, na sigla em inglês) e consultor de longa data da Microsoft, Johansen argumentou que a IA deve ser usada como uma tecnologia parceira e sugere até que devemos antropomorfizá-la em um certo nível. Ele sugeriu dar nome aos chatbots de IA generativa e dar a eles seu próprio espaço físico dentro do nosso local de trabalho, como um monitor separado. Johansen explicou que isso permite sessões de conversa mais longas e contínuas com o chatbot e acrescentou que este se tornou um parceiro essencial em seu próprio processo de escrita.
Johansen sugeriu que exploremos o futuro da IA não por meio de nossa perspectiva usual de um “presente para a frente” (começando onde estamos e olhando para a frente), mas, sim, de uma perspectiva de um “futuro para trás” (começando em um futuro imaginado e trabalhando para trás). Ele chamou isso de “previsão” e observa que a previsão leva a intuições que resultam em ação. “Construímos nossas histórias do futuro para o passado com drivers e sinais de hoje”, disse ele.
Johansen ofereceu essa abordagem pragmática à IA pois ele se baseava em seu trabalho futurista no treinamento de lideranças como novos generais de três estrelas. Ele os ensina a se envolverem em um mundo que não é um conjunto complexo de variáveis a serem resolvidas, mas sim um mundo que é, mais frequentemente, imprevisível e incompreensível – uma realidade para a qual a Igreja praticou sua linguagem: mistério.
Ele observou: “A AI generativa faz coisas que não podem ser postas em palavras”. Johansen argumentou que os líderes religiosos têm a vantagem de falar em termos de “clareza”, que ele descreve como uma “direção clara”, e não apenas uma “certeza”.
Ele descreveu a nossa era como “BANI” (sigla em inglês para Brittle, Anxious, Nonlinear, Incomprehensible [frágil, ansiosa, não linear; incompreensível]) e que os atributos de liderança necessários para esta era BANI são, respectivamente:
- Flexível com clareza e resiliência;
- Atencioso, com empatia ativa;
- Neuroadaptativo, com improvisação prática;
- Inclusivo, com pensamento de espectro total.
Finalmente, Johansen perguntou aos líderes reunidos: como a IA pode ampliar seu papel como líder religioso? Ele nos incentiva a descobrir oportunidades de ampliação preenchendo a declaração: “Eu quero esta ajuda… para…”.
Com a introdução memorável do fundador da AI and Faith, David Brenner, que comparou o crescente mercado de aplicações de IA a um “porco de ouro untado”, dois outros membros da AIF, Thomas Osborn e Brian Green, descreveram algumas das tendências que moldam a missão cristã e a IA.
O empreendedor e cofundador do AIF, Osborn, abordou o poder das forças de mercado na formação do desenvolvimento de aplicações de IA. Ele deu exemplos específicos de usos atuais e potenciais para a IA e a missão cristã.
Eticista católico, Green se concentrou nas implicações éticas/sociais da IA, como a dependência da IA e a consequente desqualificação humana. Ele também detalhou o “Apelo de Roma para uma Ética da IA” e seus seis princípios: transparência, inclusão, responsabilidade, imparcialidade e confiabilidade.
Este painel abordou um tema recorrente na conferência: o que significa ser humano em um mundo de IA? Como teóloga e cientista da computação, Noreen Herzfeld se concentrou na encarnação e na corporificação humana – um tópico que ela elaborou posteriormente em sua própria sessão. Ela distinguiu entre humanos e IA, como a consistência da corporificação humana, a capacidade de ser afetado pelo ambiente e, talvez o mais importante, a capacidade de sofrer: “A IA não pode sofrer”. Herzfeld concluiu. “A IA não pode ser uma ferramenta e também uma pessoa.”
O Pe. Benanti teme que nosso desenvolvimento de IA esteja “rebaixando” nossa teologia encarnacional ao entender os humanos como máquinas e alertou que a IA pode se tornar uma nova forma de colonialismo. O Sul Global será deixado para trás?
Como Herzfeld, mas com seu próprio senso de humor, ele prontamente distinguiu a tecnologia da IA da vida orgânica: “Desliguem o secador de cabelo... tudo bem. Desliguem o pato... e ele vira jantar!”
Em meio a essa distinção entre IA e humanidade, Ben Olson, que lidera o Windows Responsible AI and Data Compliance, da Microsoft, fala sobre a construção de pontes da humanidade por meio de ferramentas multiculturais e multilíngues alimentadas por IA. Olson fez a pergunta pragmática: “Qual é o dever do momento?”.
O chamado do Frei Benanti para uma administração ética com relação à IA ficou instantaneamente claro quando ele compartilhou uma imagem de pontes baixas ao longo do Long Island Parkway.
Robert Moses, um urbanista de meados do século XX, projetou deliberadamente as pontes baixas o suficiente para impedir que pessoas de baixa renda que dependem de ônibus públicos acessassem as praias ricas de Long Island.
Quais pontes baixas estão sendo construídas para limitar ou proibir o acesso à IA?
A visita ao campus da Microsoft, em Redmond, começou com palestras de vários empregados da Microsoft dedicados a habilitar o uso humano da IA.
Jon Palmer, vice-presidente e consultor jurídico geral da Microsoft, deu as boas-vindas e encorajou as lideranças religiosas a “testarem os pneus”.
Mark Ghazai, gerente de Tecnologia para Impacto Social da Microsoft, discutiu casos de uso do CoPilot em igrejas, chamando a IA generativa de um processo de “transcriação”.
Juan Lavista Ferres, diretor do laboratório de pesquisa AI For Good da Microsoft, compartilhou vários exemplos de como a IA pode ajudar, como, por exemplo, ao identificar uma doença ocular rara em uma criança ou ao acelerar drasticamente a avaliação de desastres.
O trabalho de Naria Santa Lucia, gerente geral de Inclusão Digital e Engajamento da Comunidade dos Estados Unidos, voltado a “habilidades para impacto social”, busca trazer fluência em IA e “ajudar as pessoas a prosperarem em uma economia digital”.
Um painel com Bob Johansen, Brian Green e Daniel Kluttz explorou aspectos da IA e respondeu a perguntas do público presente.
Kluttz observou que a IA claramente aumenta as nossas ferramentas e habilidades, mas é a área da fé que está lidando com o “aumento” do ser humano. Respondendo a uma pergunta sobre LLMs beta que estão sendo lançados ao público, Kluttz disse que a Microsoft tem uma política de lançamento de IA em fases, com sistemas de feedback fáceis para mitigar desafios. Entre outros testes de estresse, a Microsoft usa o “red teaming”, ou a contratação de adversários para testarem novos sistemas a fim de refiná-los.
Johansen disse: “se você acertar sua linguagem sobre o futuro, isso o atrai para ele”. Várias vezes ele nos aconselhou a pensarmos em termos de construir “cordas de proteção” para a IA (como em um ringue de boxe) em vez de construirmos guarda-corpos rígidos e firmes.
Green discutiu como os cristãos podem influenciar melhor a tecnologia. Ele recomendou usar conceitos da moral comum, o discurso do direito natural e a linguagem ao estilo da ONU para se conectar com um público não religioso. “Expresse a teologia em termos seculares”, disse ele, compartilhando “uma boa pergunta para envolver os secularistas: ‘É esse o tipo de mundo em que queremos viver?’”
Johansen mencionou que esperamos construir o que ele chamou de “supermentes: computadores trabalhando junto com os humanos”.
O próximo a falar ao grupo na Microsoft foi Juan Lavista Ferres, cientista-chefe e diretor do laboratório de pesquisa AI For Good, da Microsoft, onde ele trabalha com uma equipe de cientistas de dados e pesquisadores em IA, aprendizagem de máquina e modelagem estatística, voltados aos esforços do Microsoft AI For Good. Esses esforços incluem projetos de IA para a Terra, para a ação humanitária, para a acessibilidade e para a saúde.
Ele compartilhou que, “para alguns problemas mundiais, confiar na IA é a única opção que temos... A expertise em IA sozinha não pode resolver esses problemas. Precisamos colaborar com os especialistas no assunto”.
Ele observou: “Pusemos um homem na lua (em 1969) antes de adicionarmos rodas à sua bagagem (em 1972)”. Ele descreveu a necessidade de desenvolver soluções simples: “Se você quer impressionar as pessoas e parecer inteligente, suas soluções podem ser complexas. Se você quer ter um impacto neste mundo, suas soluções precisam ser simples”.
Ele disse que a tecnologia tem o potencial de criar impactos profundos, mas, segundo ele, é “essencial que priorizemos o design responsável e seguro a fim de garantir sua influência positiva na sociedade”.
FECHAR
Comunique à redação erros de português, de informação ou técnicos encontrados nesta página:
Igrejas cristãs debatem IA, religião e sociedade - Instituto Humanitas Unisinos - IHU