Luciano Floridi, professor de Ética da Informação na Universidade de Oxford, afirma: “O mais grave que pode acontecer é que a sociedade civil se deixe dominar pela política ou pelos negócios. No fim, será uma responsabilidade inteiramente humana que levará a algo de bom ou a um desastre completo”.
A reportagem é de Francesca Spasiano, publicada em Il Dubbio, 20-12-2021. A tradução é de Moisés Sbardelotto.
A vantagem da inteligência artificial é garantir o sucesso “a custo zero”. Ou seja, sem que ela precise ser realmente inteligente. Tomemos a máquina de lavar louça: para enfrentar uma montanha de pratos sujos, precisaríamos de pelo menos um pouco de engenhosidade (e esforço). Para ela, basta um simples “clique”. Isso a torna, talvez, mais inteligente do que o ser humano?
A pergunta também é uma provocação nas palavras de Luciano Floridi, professor de Ética da Informação na Universidade de Oxford. Que, para neutralizar o medo do futuro, recorre ao passado. À Idade Média, em particular: “Culpar a inteligência artificial por todos os males – explica – é como culpar o demônio ou as bruxas”. Como que dizendo: não tenham medo dos robôs, mas sim de quem os governa.
Então, professor, comecemos esclarecendo um pouco as coisas. O que se entende por inteligência artificial?
Quase sempre se entende um software e não um hardware. É natural que a publicidade recorra aos robôs para ilustrar a inteligência artificial. Mas a robótica é um ângulo muito limitado da inteligência artificial que temos ao nosso redor. Para se dar conta disso, basta lembrar as sugestões que recebemos na Netflix ou na Amazon: são um pequeno pedaço de inteligência artificial.
E um algoritmo?
Trata-se de softwares que resolvem problemas com sucesso e de modo eficiente. A tal ponto que, se nós tivéssemos que fazer isso – como se diz no jargão – “teríamos que ser inteligentes”. Uma lógica contrafactual, que serve para explicar que, na realidade, os softwares não são inteligentes.
Explique-nos.
O exemplo mais banal é o do xadrez: se eu jogo com o meu celular, ele sempre ganha. Não porque seja inteligente. Mas porque, se eu tivesse que fazer isso, teria que usar muita inteligência, da qual o software não precisa. É um pouco como a água que desce da montanha: ela encontra o caminho mais curto. Portanto, de acordo com a definição dada desde os anos 1950, a inteligência artificial é um sistema de engenharia qualquer que resolve problemas com sucesso, de tal forma que, se nós tivéssemos que fazer isso, teríamos que ser inteligentes. E isso gera muita confusão.
Os exemplos ajudam.
Tomemos a máquina de lavar louça: ela tem sucesso porque constrói um mundo em torno das capacidades elementares do robô que tem em seu interior. É isso que acontece com a nossa inteligência artificial. Somos nós que construímos um mundo ao redor do software, que, portanto, se encontra “em casa”: quando a Netflix nos sugere um filme, é porque coletou muitíssimas informações. E ela é ainda melhor para adivinhar o próximo filme quanto mais usarmos a plataforma. Sem dados para “moer”, a inteligência artificial não sabe o que dizer.
Quando se fala de inteligência artificial, fala-se principalmente dos riscos. Por que temos tanto medo?
Por duas razões principalmente: a primeira está ligada à natureza nova desses sistemas, uma capacidade de ação nunca antes vista na história humana. É o medo do desconhecido. É como se tivéssemos introduzido uma peça nova no tabuleiro. Isso nos causa impressão e, assim, começamos a fantasiar.
A segunda?
Como dependemos cada vez mais desses sistemas, surgem cada vez mais situações de alto risco. Em suma, se tivermos que confiar em um carro que dirige sozinho, o temor se justifica.
Voltemos à coleta massiva de dados. Quais são os riscos?
Como os dados são a força vital da inteligência artificial, se tivermos dados sujos, parciais ou incorretos, o sistema os usará, e o resultado só poderá ser negativo. Faz parte das limitações do sistema: recorre-se ao passado e, se o passado estiver “distorcido”, o futuro também estará. Assim, boa parte dos problemas que vemos, em termos de injustiça e de vieses (“preconceitos” que um algoritmo tende a reforçar), não são do software, mas dos dados que acumulamos e sobre os quais o software foi “exercitado”. O que denota que a sociedade não ia bem desde antes, e certamente não é culpa do software, que, no máximo, automatiza e amplia o erro. Vemos isso muito bem nos contextos de alta sensibilidade humana, desde o judiciário ao médico, ou nos serviços sociais e financeiros. Mas há um aspecto positivo.
Qual?
A inteligência artificial pode servir de lupa: não para repetir o passado, mas para entender se o passado já era discriminador.
A sensação é que tentamos humanizar a máquina a ponto de ficarmos aterrorizados que ela nos substitua.
Há alguma verdade nisso. Mas não é a humanidade que dá um tiro no próprio pé. Quem decide substituir os operários por robôs não são os operários. Devemos começar a pensar a humanidade como grupos de pessoas que tomam decisões que, às vezes, fazem mal a outros grupos. É preciso prestar atenção: a inteligência artificial não tira empregos, ela move a barra do que significa realizar atividades lucrativas. Mas há outro problema.
Qual?
Essa transição que deslocou o mundo do trabalho é enormemente acelerada pelo digital e, por ser muito veloz, a sociedade não está no mesmo ritmo. A única solução possível é arcar com o custo da transição com mais investimentos em bem-estar e na formação. Se entrarmos em pânico, então a única solução será desligar a tomada.
É a transformação que você chama de “quarta revolução”.
É uma revolução de tipo epistemológico. De autocompreensão: quem somos nós? E por que somos especiais? Especiais porque estamos no centro da festa, e a festa é o universo. Depois que Freud nos disse que sequer estamos no centro do “mundo mental”, nos entrincheiramos atrás de outra centralidade: a da informação. Mas, a partir dos anos 1950, não estamos mais nem mesmo no centro da infosfera. Essa é a “quarta revolução”, uma mudança de paradigma que envolve uma necessária reavaliação da nossa excepcionalidade. E a nossa excepcionalidade não é a de quem desfruta da festa, mas de quem pode organizá-la. Não podemos estender o cobertor do século XX. Temos que escrever um novo capítulo.
E que festa devemos organizar?
Salvar o planeta e as gerações futuras. O projeto humano do século XXI é o casamento entre o “azul e o verde”. Entender o presente para projetar o futuro é tarefa do intelectual hoje. Não vejo outras. É o chamado político, o nosso ser político: entender para mudar para melhor.
Do ponto de vista da legislação, o caminho europeu parece ficar no meio caminho entre a estratégia estadunidense e a chinesa. O que você acha do regulamento da União Europeia? Compartilha os temores de juristas e especialistas?
Os riscos existem, e o caminho europeu é bom. Para levar a termo o projeto de lei sobre a inteligência artificial da União Europeia, o “AI Act”, será preciso tempo, e teremos que ser pacientes. Como ocorreu com o GDPR [Regulamento Geral sobre a Proteção de Dados], que fez um ótimo trabalho.
Qual é a abordagem?
Ela tende a minimizar o risco e a deixar livre o campo da inovação e da indústria, desde que toda a parte do risco seja levada em consideração com os instrumentos do legislador. O mais grave que pode ocorrer aqui é que a sociedade civil se deixe dominar ou pelos negócios ou pela política. Quando os negócios e a política competem em benefício da sociedade civil, temos um bom sistema de democracia.
Nada a ver com a “algocracia”.
Isso absolutamente não.
E não serão as máquinas que levarão a melhor?
Esse é um péssimo filme de Hollywood. Uma tentativa de fuga, por meio de uma tecnofantasia, da responsabilidade que a história tem sobre si mesma. É preciso indagar quais são as decisões industriais e políticas da sociedade. Porque, no fim, será uma responsabilidade inteiramente humana que levará a algo de bom ou a um desastre completo.