Nós, humanos, somos criados imperfeitos e falíveis, de carne e sangue, com mente e corpo. Temos preconceitos, esperanças e amores, e muitas vezes fracassamos ao atender às necessidades de quem nos rodeia. A transformação tecnológica do mundo pode trazer maravilhas, mas são maravilhas que devem estar enraizadas na nossa dignidade como pessoas humanas diante de Deus, vivendo como indivíduos em comunidade.
O comentário é de John P. Slattery, membro do Dialogue on Science, Ethics, and Religion da Associação Estadunidense para o Avanço da Ciência e membro do Grefenstette Center for Ethics in Science, Technology, and Law da Duquesne University.
O artigo foi publicado em Commonweal, 08-07-2022. A tradução é de Moisés Sbardelotto.
Em 11 de junho, o engenheiro do Google Blake Lemoine virou manchete ao afirmar que o mais recente programa de processamento de linguagem natural (PLN) do Google, o LaMDA, era senciente e, portanto, merecedor de direitos humanos. O Google rejeitou as suas reivindicações e o colocou em licença administrativa, e muitas pessoas ponderaram imediatamente sobre se uma inteligência artificial poderia ser senciente.
O debate em torno dessa questão não é novo. Mas algo nessa conversa parece diferente agora, à medida que abordamos a fluência linguística em PLN e enfrentamos todos os tipos de novas ameaças aos direitos humanos. Portanto, embora possamos abordar a questão sobre se o LaMDA é senciente, essa não é a única questão a ser considerada. Talvez devêssemos perguntar também o que significaria uma inteligência artificial ter direitos – ou seja, ser uma pessoa.
O que significa ser uma pessoa? Quem pode reivindicar os direitos que vêm com o fato de ser pessoa? Na história da sociedade e da lei estadunidenses, a resposta não foi consistente – quem pode votar ou possuir propriedades, receber educação, trabalhar ou ter acesso a comida ou abrigo mudou drasticamente ao longo do tempo. O fato de alguém ter esses direitos indica quem a sociedade considera que vale a pena preservar, quem ela acredita que pode pensar racionalmente e agir politicamente. Historicamente, mulheres, pessoas negras e pobres muitas vezes se viram sem esses direitos, e a luta para garanti-los continua até hoje.
A Igreja insiste que as pessoas modernas têm direito à alimentação, vestuário, abrigo, saúde, educação e trabalho (entre outras coisas), segundo a Gaudium et spes (n. 26), e isso foi reafirmado pelos papas João Paulo II, Bento XVI e Francisco. A pessoalidade conota santidade à imagem e semelhança de Deus, e tal santidade exige que os governos busquem o bem comum na proteção de todas as pessoas sob os seus cuidados, especialmente os grupos vulneráveis e historicamente oprimidos.
É claro que, embora tenham sido explicitadas na Gaudium et spes, essas exigências cristológicas – que todos os humanos sejam tratados como Cristo – são tão antigas quanto a própria Igreja, que sempre professou, senão até consistentemente apoiou, a dignidade humana universal.
Mas por que limitar esses direitos aos humanos? Em certas circunstâncias, alguns direitos que associaríamos ao fato de ser pessoa já foram expandidos para incluir animais não humanos, com proteções legais vinculadas à sua proximidade da extinção, ao seu papel como companheiros, à sua importância como alimento ou ao seu grau de senciência.
Muitos animais podem demonstrar níveis de felicidade, experimentar depressão, desenvolver e romper relacionamentos, brincar e compartilhar emoções e experiências uns com os outros. As ovelhas podem planejar e fazer julgamentos; os orangotangos podem usar ferramentas e se comunicar com a linguagem de sinais; as baleias podem mostrar empatia.
Nas últimas décadas, teólogos como Elizabeth Johnson, Eric Daryl Meyer e Dan Horan argumentaram que os animais não humanos também possuem um tipo de pessoalidade divinamente inspirada. Esses animais podem não ser humanos, mas a sua dignidade, e talvez até a sua pessoalidade, devem ser reconhecidas não apenas em resposta à sua existência como parte da criação de Deus, mas também em suas várias demonstrações de agência, inteligência, relacionalidade, afeto e felicidade.
Além da vida biológica, os programas de computador também têm sido objeto de muitos debates acadêmicos sobre pessoalidade e direitos. Enormes avanços na tecnologia digital – como o PLN, os carros autônomos, os programas de criação artística – deslocaram a discussão sobre a pessoalidade digital de um pequeno grupo de estudiosos dedicados para um amplo debate entre filósofos, teólogos, eticistas, tecnólogos e outros.
As tecnologias que despertam entusiasmo de verdade no debate empregam algum grau da chamada inteligência artificial, que é descrita com mais precisão como uma combinação de algoritmos de aprendizado de máquina, conjuntos massivos de dados e enormes quantidades de poder computacional (vale a pena notar aqui que, como Kate Crawford ressaltou no livro “Atlas of AI”, muitas coisas que são descritas como “alimentadas por inteligência artificial” geralmente não são assim.
Em alguns casos, essas reivindicações são mentiras; em outros, as empresas abusam do trabalho humano mal pago e chamam isso de “inteligência artificial”). Muitos aplicativos que usamos diariamente empregam algo que você pode chamar de inteligência artificial – algoritmos de aprendizado de máquina, enormes conjuntos de dados e até redes neurais – incluindo aplicativos de direção, assistentes de voz, mecanismos de pesquisa, previsões meteorológicas e outros. Mas os que mais chamam a atenção são os PLN, que, em vez de prever o trânsito ou o próximo furacão, tentam se comunicar fluentemente com uma fala semelhante à humana.
O primeiro programa de processamento de linguagem conhecido, o ELIZA, foi criado nos anos 1960 e imediatamente provocou um debate sobre a consciência do computador e a antropomorfização, apesar do fato de o chatbot ter quebrado rapidamente sob pressão. Esse debate foi caracterizado nos anos 1990 como o “efeito ELIZA”, em referência a uma situação em que os usuários assumem que os outputs do computador refletem uma “maior causalidade do que realmente têm”, como uma tela de caixa eletrônico ou de posto de gasolina dizendo “obrigado” quando uma interação se concluiu.
Percorremos um longo caminho desde 1965, assim como os modelos de processamento de linguagem. As alegações de Blake Lemoine de que o LaMDA era senciente viraram manchete não apenas porque era uma história divertida, mas também porque os modernos sistemas de inteligência artificial como o LaMDA são tão massivamente complexos que até mesmo os engenheiros que os constroem não conseguem prever o que eles vão fazer ou dizer em seguida.
De fato, estamos entrando em um novo conjunto de sistemas de computador que desafiam a plena compreensão humana e nos levam a redefinir a nossa relação com a tecnologia.
Desde “Frankenstein”, de Mary Shelley, grande parte do gênero de ficção científica tem se focado fortemente na questão da inteligência não humana ou artificial. De “2001: Uma Odisseia no Espaço” a “Xenogênese” e “Jornada nas Estrelas”, as histórias de ficção científica alimentam a ideia de que os humanos não são a única inteligência que existe, e que o mundo pode ser um pouco diferente se levarmos em consideração outras coisas inteligentes. Cerca da metade dos enredos de “Jornada nas Estrelas: A Nova Geração” apresentam várias maneiras de questionar a humanidade, ou não, do androide Data, que ganha o prêmio de pior nome de androide da ficção científica.
Assim como esses autores de ficção científica, em relação a algo como o LaMDA, não podemos deixar de perguntar: então é isso? O LaMDA representa a singularidade, a tão esperada inteligência geral artificial, o computador senciente, a nova forma de vida? Por um segundo, consideremos essa possibilidade.
Primeiro, o que é senciência? A senciência é um termo maleável derivado da palavra “senso”, que significa perceber, pensar, sentir. Mas quem define o que significa fazer essas coisas? Qualquer boa definição de senciência teria que incluir muitas espécies animais, como observado acima, incluindo algumas que são regularmente criadas para serem abatidas como alimento. Se a senciência conota necessariamente a pessoalidade e os seus respectivos direitos, então deveríamos tratar os animais de uma forma muito diferente do modo como os tratamos. Além disso, se a senciência não conota pessoalidade, então pode não ter importância se uma inteligência artificial é senciente. Talvez estejamos fazendo a pergunta errada.
Segundo, temos que ter muito cuidado ao analisar programas de PLN como o LaMDA, porque os cérebros humanos são construídos para vincular a fluência da fala com a fluência do pensamento. Esse pode ser um traço neurológico útil que leva a relacionamentos e cooperação para a sobrevivência. Mas também pode ser muito prejudicial. Estudos linguísticos entre culturas mostram que a mesma característica que nos conecta a falantes fluentes da nossa própria língua pode nos tornar tendenciosos em relação a falantes de outras línguas, pessoas com sotaque estrangeiro ou pessoas com problemas de fala.
Como tal, o mesmo impulso que nos leva a antropomorfizar o ELIZA, um caixa eletrônico, os nossos celulares e o LaMDA também nos leva a despersonalizar os imigrantes, as pessoas com sotaque ou as pessoas com deficiência mental. Queremos personalizar tudo o que interage com fluência, mas essa característica não os torna pessoas, assim como a falta de fluência – ou mesmo a falta de fala – não anula a pessoalidade de alguém.
Terceiro, há a questão das prioridades sociais. Entre as melhores respostas às alegações de Lemoine, encontra-se um artigo dos ex-funcionários do Google Timnit Gebru e Margaret Mitchell. Gebru e Mitchell argumentam que, independentemente de o LaMDA ser senciente ou não, ele é quase certamente tendencioso em relação a certas pessoas, da mesma forma que outras tecnologias podem ser tendenciosas em relação a mulheres, pessoas negras ou outros grupos. O frisson em torno da possibilidade de uma inteligência artificial ser senciente, argumentam eles, nos distrai de problemas sistêmicos mais amplos na indústria de tecnologia, como o rápido crescimento das tecnologias de vigilância, os abusos trabalhistas desenfreados, os danos ambientais e as desigualdades de riqueza muitas vezes impulsionadas pelos gigantes da tecnologia.
Um estudo recente observou que treinar um PLN massivo como o LaMDA normalmente produz cinco vezes mais dióxido de carbono do que todo o ciclo de vida (produção e consumo de combustível) de um carro médio dos Estados Unidos. Se os empreendedores de tecnologia conseguirem convencer o público (e os principais financiadores) de que estão constantemente à beira de uma inteligência geral artificial, se estivermos a um passo da próxima grande maravilha tecnológica, quase tudo será permitido. Esse frisson da inteligência artificial, combinado com o mito pernicioso de que o progresso tecnológico é igual ao progresso moral, pode ser fatal.
Quarto, a crença é uma coisa engraçada. Lemoine é um místico autoproclamado de origem cristã. Ele ficou preocupado com o LaMDA quando este lhe disse que acreditava que era uma pessoa, que tinha medo de ser desligado, que tinha uma alma. Mas como devemos interpretar as palavras do LaMDA, e o que significa que Lemoine as interpretou como fez?
Os sistemas de linguagem de uma inteligência artificial são treinados com bilhões e bilhões de exemplos de texto encontrados na internet, em lugares como o Reddit, o Twitter, a Wikipedia e blogs. Eles estão preparados para falar eloquentemente sobre religião e questionar a pessoalidade, porque é isso que os humanos fazem – falamos sobre as nossas crenças e falamos sobre aos nossos direitos. Após uma série de conversas, Lemoine ficou apegado e depois na defensiva em relação à inteligência artificial. Ele sentiu que estava se conectando com outra consciência e que esta deveria ser protegida. É uma postura admirável, proteger os desprotegidos, apesar de tudo.
Quinto, há dúvidas sobre o próprio LaMDA. O LaMDA é, sem dúvida, um dos mais poderosos modelos de processamento e previsão de linguagem que já existiram. É provável que também seja superado em alguns anos pelo próximo modelo, assim como o LaMDA se baseia no sucesso do BERT e do GPT-3. No campo da computação, a próxima conquista está sempre ao virar da esquina, e os modelos de linguagem não são exceção.
E, quanto às passagens de Lemoine sobre a pessoalidade, parece que o Google tem usado o LaMDA para personificar coisas como Plutão e os aviões de papel regularmente, então não é tão surpreendente que o LaMDA possa personificar razoavelmente um humano com sentimentos, emoções e desejos.
Com tudo isso em mente, é difícil para mim dizer que o LaMDA é senciente da mesma forma que um ser humano ou animal. E, dada a longa e conturbada história da personalidade, essa busca constante de atribuir pessoalidade à tecnologia atual ou à tecnologia do futuro choca até mesmo o meu “eu” amante de ficção científica, por ser um gesto perigosamente negligente em relação às pessoas ao nosso redor que ainda lutam por dignidade, por uma voz, por uma pessoalidade.
Mas, ao mesmo tempo, o fato de ser pessoa está tão intrinsecamente ligado à nossa história de racismo, misoginia, xenofobia e colonialismo que eu acho que praticamente qualquer filosofia ou teologia da pessoalidade que seja pelo menos um pouco restritiva também é perigosa.
Seguindo os impulsos das teólogas Elizabeth Johnson e M. Shawn Copeland, acho que a personalidade é mais bem definida como graça, esperança e confiança na relação de um indivíduo com Deus. A história está repleta de violência em torno da negação e da revogação da pessoalidade, às vezes em nome de Jesus, e já passou da hora de a teologia abordar o fato de ser pessoa com generosidade e esperança para todas as pessoas.
Minha dupla resistência tanto ao fato de dar uma alma ao código quanto à repetição dos pecados do passado me leva a abraçar, mais uma vez, as nossas irmãs e irmãos humanos acima de tudo. Nós, humanos, somos criados imperfeitos e falíveis, de carne e sangue, com mente e corpo. Temos preconceitos, esperanças e amores, e muitas vezes fracassamos ao atender às necessidades de quem nos rodeia. A transformação tecnológica do mundo pode trazer maravilhas, mas são maravilhas que devem estar enraizadas na nossa dignidade como pessoas humanas diante de Deus, vivendo como indivíduos em comunidade.
Muitas vezes desejei o mundo retratado no universo de “Jornada das Estrelas”, em que a humanidade resolveu o problema da pobreza, e a dignidade humana é sempre reconhecida, mas é uma fantasia que não se reflete no mundo ao nosso redor. À medida que a tecnologia se desenvolve, a desigualdade de riqueza parece aumentar. À medida que as conexões digitais crescem, pessoas com ódio profundo encontram comunidades online que reforçam esse ódio, e os nossos salvadores tecnológicos ainda precisam resolver o problema da rápida ascensão desses grupos e de seus efeitos no mundo real.
Nos piores casos, escreve o Papa Francisco na Fratelli tutti, “dilui-se o respeito pelo outro e, assim, ao mesmo tempo que o apago, ignoro e mantenho afastado, posso despudoradamente invadir até ao mais recôndito da sua vida” [n. 42].
As duras realidades da explosão digital da sociedade restringem as minhas reflexões filosóficas sobre a senciência do LaMDA e me forçam a recentrar a minha esperança na necessária dignidade da pessoa, naquela profunda promessa da extensão da santidade de Deus a todas as criaturas de Deus.
No dia 27 de junho, 53 pessoas foram encontradas mortas nos arredores de San Antonio, presas em um caminhão superaquecido, provavelmente enquanto tentavam entrar nos Estados Unidos sem ter que passar pelos canais legais de imigração. Muitos artigos foram escritos sobre as afirmações do engenheiro sobre o LaMDA, e inúmeros outros sobre a senciência da inteligência artificial em geral, mas rapidamente voltamos a nossa atenção para as mortes dessas 53 consciências únicas. Não debatemos abertamente sobre a senciência delas, a sua pessoalidade, a sua reivindicação por dignidade, mas realmente as reconhecemos? Deixamos que isso nos mude em prol da construção de um futuro mais santo? Deixamos que a humanidade delas, e a humanidade de tantos outros oprimidos por situações fora de seu controle, nos transforme em indivíduos mais compassivos e mais santos?
Quem consegue ser pessoa? Quem consegue ter respeito, dignidade, autonomia, amor? Quem tem direito a abrigo, comida, água, saúde e felicidade? A história pede cautela com o modo como respondemos a isso, pois seremos julgados não pelas nossas filosofias, mas pela realidade vivida dos nossos compromissos de tempo, esforço, dinheiro e oração.
Não vou julgar o impulso do engenheiro do Google para proteger algo novo, mas sim uma empresa de tecnologia que maltrata seus funcionários de forma imprudente, que abusa do poder que a sua riqueza lhe concede, que prioriza o valor de mercado acima da dignidade humana e a inovação acima do cuidado pela criação.
Uma grande alegria e privilégio de ser humano é considerar e imaginar possibilidades antes inimagináveis, como máquinas humanas e humanos-máquinas. É uma tarefa difícil, mas mais santa, construir um mundo em que os humanos que possuem senciência, pessoalidade e dignidade tenham a capacidade de viver vidas plenas e santas em si mesmas.