“Quero pedir, em nome de Deus, aos gigantes da tecnologia que parem de explorar a fragilidade humana, as vulnerabilidades das pessoas, para obter lucros, sem considerar como estão aumentando os discursos de ódio, o grooming [aliciamento de menores na internet], as fake news, as teorias da conspiração, a manipulação política” (Papa Francisco, na videomensagem por ocasião do IV Encontro Mundial dos Movimentos Populares, 16 de outubro de 2021).
No dia 16 de outubro, Francisco dirigiu uma videomensagem aos movimentos populares contendo uma série de pedidos introduzidos pela expressão: “Quero pedir, em nome de Deus...”. O papa, valorizando as reivindicações populares, os órgãos intermediários e os “descartados” pelo sistema, apelou aos políticos, aos industriais, aos homens da cultura e, em última instância, a todos nós, propondo palavras proféticas e objetivos exigentes.
As mídias vaticanas, para aprofundar as palavras do pontífice e propor um debate sobre os primeiros passos concretos possíveis na direção indicada por ele, iniciam um debate sobre os conteúdos daquele discurso.
O franciscano italiano Paolo Benanti, especialista em ética, bioética e ética das tecnologias, reflete sobre o apelo com o qual Francisco se dirige aos gigantes da tecnologia para pedir uma mudança de rumo em prol do respeito à pessoa humana.
O artigo foi publicado por L’Osservatore Romano, 20-12-2021. A tradução é de Moisés Sbardelotto.
O digital, a internet e as inteligências artificiais estão mudando o mundo: todas as atividades humanas, da medicina à segurança nacional, estão passando por profundas transformações. Esses sistemas não só ajudam o ser humano, mas, em situações cada vez crescentes, dão origem a sistemas, bots ou robôs completamente autônomos.
Diante desse dilúvio, a questão ética é urgente. Quanto mais a inovação digital se torna difusa e nas mãos de poucos assuntos cada vez mais poderosos, mais é necessário desenvolver uma nova linguagem universal que saiba gerir a inovação.
Em particular, as inteligências artificiais são artefatos tecnológicos. Mas diferente de todos os artefatos produzidos até hoje. Todos os instrumentos que produzimos, permitem que o ser humano realize algumas tarefas. Das clavas primitivas às grandes máquinas industriais, todos esses instrumentos serviam para fazer melhor, mais rápido, de forma mais eficaz tarefas específicas.
As inteligências artificiais, nos bots assim como nos robôs, superam o conceito de artefato e de máquina que conhecíamos até agora. Todos os mecanismos automáticos que construímos durante a revolução industrial foram construídos pensando em qual seria a sua finalidade. Eles faziam aquilo para o qual haviam sido projetados e ponto final.
Hoje, as inteligências artificiais não são projetadas assim. Elas não são softwares programados, mas sistemas treinados. Supera-se o modelo clássico “if this then that” [se isto, então aquilo] em que um engenheiro de software previa antes todas as ocorrências possíveis.
As inteligências artificiais respondem de forma autônoma a um problema que lhes é posto. Esses artefatos são uma nova espécie nas máquinas. São Machine sapiens. Hoje, o mundo não é mais habitado apenas pelo Homo sapiens, mas também por Machine sapiens. Mas como a Machina sapiens decide?
Os cientistas de dados nos dizem que o problema é a qualidade e a quantidade dos dados. Quando tivermos um banco de dados perfeito no qual seja possível executar os nossos serviços de inteligência artificial, a máquina fará escolhas perfeitas. Mas é assim?
No passado, já tivemos essa impressão. Laplace defendia que, se conhecêssemos a posição em um instante de todas as partículas que contêm o universo, seríamos capazes de prever todo o futuro e de conhecer todo o passado do universo. Deixemos de lado a pergunta filosófica sobre essa possibilidade e abordemo-la a partir de um ponto de vista operacional.
Se fôssemos capazes de criar um mapa que seja a cópia exata da realidade, incluindo tudo dentro dele, até mesmo os pedestres, as folhas das árvores etc., teríamos que reconhecer que o mapa que criamos é inútil. De fato, ele seria tão complexo quanto a realidade, complexo demais para tomar decisões e, portanto, inútil.
Ou seja, estaríamos diante do conhecido paradoxo narrado por Jorge Luis Borges em um fragmento de “Sobre o rigor na ciência”, o último da “História universal da infâmia”, publicado pela primeira vez em 1935. Como de hábito, o autor argentino atribui a citação a um livro que, na realidade, não existe: “…Naquele império, a Arte da Cartografia alcançou tal Perfeição que o mapa de uma única Província ocupava toda uma Cidade, e o mapa do Império, toda uma Província. Com o tempo, esses Mapas Desmedidos não satisfizeram, e os Colégios de Cartógrafos levantaram um Mapa do Império que tinha o tamanho do Império e coincidia pontualmente com ele (Suárez Miranda: Viajes de Varones Prudentes, livro IV, capítulo XIV, Lérida, 1658)”.
Os dados são um mapa da realidade, representam uma redução da realidade e, por isso, são úteis para tomar decisões. Além disso, as inteligências artificiais trabalham com bancos de dados e sensores. Mas os sensores também não leem toda a realidade: tomam apenas uma parte dela, transformando-a em dados.
Aqui chegamos ao ponto-chave da questão. Como as inteligências artificiais baseiam suas decisões nos dados, e como esses dados não são uma cópia perfeita da realidade, é impensável a priori que a máquina dotada de inteligência artificial possa fazer uma escolha livre de erros. A Machina sapiens será sempre e constitutivamente falível.
As inteligências artificiais precisam constitutivamente de uma ética. Como elas podem cometer erros, é preciso entender, então, como gerir esse equívoco. A questão ética é fundamental, importantíssima e urgente. É preciso encontrar um sistema ético compartilhado, para que a utilização desses sistemas não produza injustiças, não prejudique as pessoas e não crie fortes desequilíbrios globais.
A existência de Machine sapiens pede que se institua uma nova linguagem universal que saiba traduzir essas diretrizes éticas em diretrizes executáveis pela máquina. Mas como fazer isso? O mundo na era da Digital Age é regulado pelos algoritmos. Vários falam de uma algocracia. Para evitar que haja esse domínio do algoritmo também graças às inteligências artificiais, devemos começar a desenvolver essa linguagem comum da algorética.
O problema é acima de tudo filosófico e epistemológico. As inteligências artificiais “funcionam” de acordo com esquemas que conectam dados. Que tipo de conhecimento é esse? Que valor ele tem? Como deve ser tratado e considerado?
Em suma, a pergunta, antes que tecnológica, é ética e filosófica: na medida em que quisermos confiar competências humanas, de compreensão, de julgamento e de autonomia de ação a sistemas de software de inteligência artificial, devemos entender o valor, em termos de conhecimento e de capacidade de ação, desses sistemas que pretendem ser inteligentes e cognitivos.
Para poder desenvolver uma algorética, devemos esclarecer em que sentido se fala de valor. De fato, os algoritmos trabalham sobre valores de natureza numérica. A ética, por sua vez, fala de valor moral. Devemos estabelecer uma linguagem que saiba traduzir o valor moral em algo computável para a máquina. A percepção do valor ético é uma capacidade puramente humana. A capacidade de trabalhar com valores numéricos, em vez disso, é a habilidade da máquina. A algorética nasce se formos capazes de transformar o valor moral em algo computável.
Mas, na relação entre ser humano e máquina, o verdadeiro conhecedor e portador de valor é a parte humana. A dignidade humana e os direitos humanos nos dizem que é o ser humano que deve ser protegido na relação entre ser humano e máquina. Essa evidência nos fornece o imperativo ético fundamental para a Machina sapiens: duvida de ti mesma.
Precisamos permitir que a máquina tenha um certo senso de incerteza. Sempre que a máquina não souber se está protegendo com certeza o valor humano, ela deve exigir a ação do ser humano. Essa diretriz fundamental é obtida por meio da introdução de paradigmas estatísticos dentro das inteligências artificiais.
Essa capacidade de incerteza deve ser o coração da decisão da máquina. Se a máquina, sempre que se encontrar em uma condição de incerteza, perguntar ao ser humano, então o que estamos realizando é uma inteligência artificial que coloca o ser humano no centro ou, como se costuma dizer entre os técnicos, um human-centered design. A norma fundamental é aquela que constrói todas as inteligências artificiais de uma maneira human-centered.
A partir dessa gramática de base, podemos desenvolver uma nova linguagem universal: a algorética. Esta terá a sua própria sintaxe e desenvolverá a sua própria literatura. Este não é o lugar nem o momento para dizer tudo o que pode ser expressado com essa linguagem, mas parece que temos que dar ao menos alguns exemplos que revelem as suas potencialidades.
Anticipation – Quando dois humanos trabalham juntos, um consegue antecipar e apoiar as ações do outro, intuindo as suas intenções. Essa competência está na base da flexibilidade que caracteriza a nossa espécie: desde os tempos antigos, ela permitiu que o ser humano se organizasse. Em um ambiente misto, as inteligências artificiais também devem ser capazes de intuir o que os seres humanos querem fazer e devem apoiar as suas intenções cooperando: a máquina deve se adaptar ao ser humano, e não vice-versa.
Transparency – Os robôs comumente funcionam de acordo com algoritmos de otimização: o uso de energia dos seus servomotores, as trajetórias cinemáticas e as velocidades de operação são calculadas para serem o mais eficientes possível no cumprimento do seu objetivo. Para que o ser humano possa conviver com a máquina, a ação dela deverá ser inteligível. O objetivo principal do robô não deve ser a otimização das próprias ações, mas sim tornar o próprio agir compreensível e intuitivo para o ser humano.
Customization – Um robô, por meio da inteligência artificial, se relaciona com o ambiente ajustando seu próprio comportamento. Onde o ser humano e a máquina convivem, o robô também deve ser capaz de se adaptar à personalidade do ser humano com quem coopera. O Homo sapiens é um ser emocional; a Machina sapiens deve reconhecer e respeitar essa característica única e peculiar do seu parceiro de trabalho.
Adequation – Os algoritmos de um robô determinam as suas linhas de conduta. Em um ambiente compartilhado, o robô deve saber adequar seus próprios fins observando a pessoa e compreendendo, assim, qual é o objetivo pertinente em cada situação específica. Em outras palavras, a máquina deve adquirir uma “humildade artificial” para atribuir uma prioridade operacional às pessoas presentes, e não ao cumprimento de um fim predeterminado.
Na era do digital, a Digital Age, com as inteligências artificiais cada vez mais difundidas, esses quatro parâmetros são um exemplo de como proteger a dignidade da pessoa.
Hoje, as inteligências artificiais são desenvolvidas de uma forma market-driven ou state-driven. Devemos pensar em outras modalidades. Por exemplo, desenvolvendo algoritmos de verificação independentes que saibam certificar essas quatro capacidades das máquinas. Ou é possível levantar a hipótese de terceiros independentes, que, por meio da escrita de algoritmos dedicados, sejam capazes de avaliar a idoneidade das inteligências artificiais para a convivência com o ser humano.
A “Rome Call for AI”, assinada em Roma em 2020, é um primeiro passo nessa direção. Somente respeitando essas indicações é que a inovação poderá ser orientada para um autêntico desenvolvimento humano.