12 Janeiro 2024
"Penso que manter a centralidade do lado humano da relação homem-máquina não é apenas uma questão educativa ou de formação: é uma questão de tolerância do sistema democrático. Provavelmente será necessário reintroduzir uma categoria que já existe no direito: a diferença entre perigo e risco", escreve Paolo Benanti, frei franciscano da Terceira Ordem Regular, professor da Pontifícia Universidade Gregoriana, de Roma, e acadêmico da Pontifícia Academia para a Vida, em artigo publicado por La Stampa, 10-01-2024.
O que significa olhar para a tecnologia com uma abordagem ética? Certamente não é procurar as taboas dos Dez Mandamentos da tecnologia, mas é questionar-se e perguntar que forma de poder injeta determinado tipo de inovação tecnológica dentro da sociedade.
Vejam Manhattan como a conhecemos hoje. Foi projetada pelo arquiteto e político Robert Moses, segundo o qual na parte melhor da cidade deveria estar a parte melhor da população. Na mentalidade de Moses, a melhor parte da população era a classe média rica é branca. Então ele projetou cada aspecto do traçado da cidade, desde as ruas até as infraestruturas, com a intenção específica de atingir aquele objetivo.
Pois bem, a ética da tecnologia considera a tecnologia como uma construção sociotécnica, tenta destacar que tipo de relações existem entre tecnologia e vida social. Em relação à inteligência artificial, deveríamos nos perguntar que efeito teria sobre as nossas capacidades de tomada de decisão.
O problema já estava presente no final da década de 1940 e início da década de 1950, quando Claude Shannon projeta o protótipo de um novo sistema de comunicação considerado o precursor da IA: um ratinho mecânico ao qual deu o nome de Teseu, que conseguia sair do labirinto batendo pancada após pancada nas paredes. Ele criou uma máquina diferente daquelas das revoluções industriais, porque utilizava as informações como instrumento de controle, portanto não era apenas o substituto de um poder humano, mas uma máquina orientada para um propósito e dotada de meios para alcançá-lo. Essas foram as origens da cibernética.
Outra grande questão que se coloca diante de nós é a capacidade de persuasão da máquina. Em muitos estudos que leio, vejo que, infelizmente, está difundida uma retórica semelhante àquela que vimos com o tabaco e com armas: não há distinção entre persuasão e manipulação, algo que desde Aristóteles aprendemos a distinguir. Deixe-me explicar. Eu posso não te fazer mudar de ideia, mas no imediato posse te fazer agir de uma determinada maneira. Isso é o que afirma a Nudge Theory (ou arquitetura de escolha), uma das principais teorias das ciências comportamentais, hoje tão poderosa precisamente porque vivemos em um contexto cultural que tem dificuldades no respeito das normas.
Explicando com uma imagem: na vida cotidiana passamos do semáforo (que em termos concretos impõe um comportamento; um indicativo normativo externo, diria Kant) - à rotatória (que se baseia no princípio “você se regula como quiser”). Mas como regular uma sociedade se a indicação normativa não funciona?
Em Amsterdã, no aeroporto de Schiphol, tinham um problema: limpar os banheiros masculinos custava quase o dobro da limpeza daqueles femininos. O que fazer? Um dispositivo normativo externo teria funcionado muito bem: “Por favor, urinar dentro do vaso”. Eles poderiam ter escrito isso tão grande quanto quisessem, mas a situação não teria mudado. Foi o suficiente desenhar uma mosca dentro do vaso para garantir que o custo de limpeza dos banheiros masculinos se tornasse quase o mesmo daqueles femininos. Passou-se, de fato, de uma norma para um dispositivo de informação que pressiona o ser humano e muda o seu comportamento.
E é aqui que encontramos a tensão mais forte possível, na minha opinião, sobre o estado de direito. E é aqui que está em jogo o problema da legitimidade na era moderna: o que faz de uma lei algo que é lícito?
John Rawls, na sua Teoria da Justiça, sugere alguns critérios formais: uma lei, para estar em conformidade com o estado de direito, deve atender a três condições: ser cognoscível, universal e geral. Ora, como legitimar as regras de funcionamento das máquinas inteligentes?
Vamos tentar ver se respeitam tais condições. Essas regras são cognoscíveis? Poderia se tornar o código aberto, para que todos pudessem lê-lo. Mas já Ken Thompson, vencedor do prêmio Turing, num seu artigo de 1982, Trusting the Trust, demonstrou que não podemos ter certeza de que o algoritmo faça apenas o que o código determina; além disso, qualquer um poderia alterar o código.
Segunda condição: são universais? Bem, o algoritmo dispõe para isso. Terceira condição: são gerais? As máquinas inteligentes obedecem apenas ao dono do servidor. No início de um 2024 que verá a França, os Estados Unidos e a Europa votar, precisamos nos perguntar como que o lado humano da relação entre homem e máquina pode metabolizar, gerenciar e harmonizar esse instrumento dentro dos processos que escrevem o contrato social.
Podemos confiar nessas máquinas inteligentes? Quando subo num avião, tenho fé no fato que alguém verificou os pneus, que os motores foram revisados, que o piloto teve um treinamento específico. Podemos chamar tudo isso de contrato social.
Uma máquina de IA que trabalha sem parar com aquelas modalidades de que falamos, corre o risco de corroer a confiança que está na base do contrato social: todos os estudos sobre a polarização o demonstram. Porque uma plataforma não é um sujeito neutro: é um sujeito que monetiza em relação a essa polarização. Ou seja, extrai valor em relação a algo que é um valor comum e compartilhado, que é a coletividade social. Não seria bom começar a definir e medir a manipulação digital, que é diferente da persuasão?
Porque, se for verdade, como demonstram os dados, que as pessoas expostas aos sistemas de inteligência artificial não mudem de ideias a longo prazo, é igualmente verdade que esses sistemas induzem a comportamentos imediatos (por exemplo, à compra). E é essa diferença entre manipulação e persuasão que deve voltar a ser colocada no centro do debate público.
Concluindo, penso que manter a centralidade do lado humano da relação homem-máquina não é apenas uma questão educativa ou de formação: é uma questão de tolerância do sistema democrático. Provavelmente será necessário reintroduzir uma categoria que já existe no direito: a diferença entre perigo e risco. Manejamos substâncias perigosas todos os dias (basta pensar na gasolina), mas fazemos isso usando uma série de dispositivos de proteção. Portanto, o problema não é o poder da máquina, mas como o inoculamos num contexto social e como gerimos e monitorizamos o contexto social.
FECHAR
Comunique à redação erros de português, de informação ou técnicos encontrados nesta página:
A IA pode nos manipular, mas não nos persuadir: o que aprendi como eticista de tecnologia - Instituto Humanitas Unisinos - IHU