07 Agosto 2019
“É preciso criar uma linguagem universal que coloque o ser humano no centro: uma algor-ética que recorde constantemente que a máquina está a serviço do ser humano, e não o contrário.”
O comentário é do teólogo e sacerdote italiano Paolo Benanti, frei franciscano da Terceira Ordem Regular e professor de Teologia Moral da Pontifícia Universidade Gregoriana, em Roma, em artigo publicado por Settimana News, 04-08-2019. A tradução é de Moisés Sbardelotto.
Várias vezes, ocupei-me de inteligências artificiais e ética. Em vários textos, apresentei cenários, desafios concretos, perguntas de sentido e questões filosóficas e éticas. Mas em que ponto está a reflexão global? Tentemos fazer um balanço sobre o que está “fervendo na panela”.
Não é fácil apresentar uma síntese. Mas podemos apresentar três estudos que tentam fazer essa síntese, obtendo assim um duplo resultado. Por um lado, oferecer referências sobre o tema e, por outro, mostrar as tendências atuais para falar sobre ética e inteligência artificial (IA). Então, vejamos os três principais estudos sobre a ética da IA disponíveis neste momento.
Para saber quais são os princípios éticos recorrentes citados pelas muitas diretrizes escritas por governos, organizações multilaterais e empresas para desenvolver uma inteligência ética artificial, é preciso se referir a um novo estudo (“Artificial Intelligence: the global landscape of ethics guidelines” [Inteligência Artificial: a paisagem global das diretrizes da ética], disponível aqui, em inglês) que revisou 84 dessas diretrizes (a maioria foi publicada entre Estados Unidos e Europa; entre elas, também está o livro branco da Agência para a Itália Digital, para o qual eu contribuí pessoalmente), destilando os princípios enunciados.
Os recorrentes, sobre os quais há mais convergência (estão presentes em mais da metade dos documentos), são cinco, embora permaneçam diferenças sobre como são interpretados depois e sobre como deveriam ser implementados.
Mas quais são os princípios em questão? Aqui estão eles em ordem de maior frequência:
Transparência: entendida sobretudo como a capacidade de explicar, interpretar e, em geral, revelar processos e decisões.
Justiça e equidade: entendidas como prevenção e mitigação de discriminações, mas também como possibilidade de apelar a decisões.
Não maleficência: entendida como o evitamento de riscos ou danos específicos, como abusos intencionais da tecnologia, por exemplo na guerra cibernética e no hacking, mas também como discriminações e violações da privacidade.
Responsabilidade e responsabilização: entendidas no sentido de esclarecer a atribuição das responsabilidades, também legais, mas novamente, também, esclarecer processos que possam levar a eventuais danos.
Privacidade: entendida em relação à proteção dos dados e à sua segurança.
Há também outro estudo recente de Harvard sobre esse mesmo assunto (disponível aqui, em inglês). Os pesquisadores extrapolaram oito temas-chave de 32 documentos:
1) responsabilização
2) equidade e não discriminação
3) controle humano da tecnologia
4) privacidade
5) responsabilidade profissional
6) promoção de valores humanos
7) segurança
8) transparência e capacidade de ser explicado
Apenas metade dos documentos analisados por esse artigo se refere aos direitos humanos. Convido-os a verem a sua visualização aqui abaixo: um trabalho realmente impressionante.
(Foto: PaoloBenanti.com)
Por fim, há um estudo notável [disponível aqui, em inglês], do início deste ano, que analisa, de modo mais geral, os pressupostos do movimento por uma IA ética. Forçando o texto, de forma brutal e talvez um pouco radical, em síntese, poderíamos dizer que a sua conclusão é a seguinte: as conversas em curso sobre a ética na IA são pouco radicais e estão imbuídas de determinismo tecnológico (ou seja, a IA é uma força histórica à qual os humanos só podem reagir de maneira limitada, não está prevista a possibilidade de dizer não a certos sistemas ou estabelecer que certos dados não devem ser coletados).
As soluções propostas estão sempre em um nível “melhorativo” do ponto de vista técnico ou da implementação, não se discutem os pressupostos éticos ou políticos básicos. Ou seja, “os problemas continuam sendo, nessa visão, fundamentalmente técnicos, protegidos da intervenção democrática”. Acho esse estudo acadêmico muito esclarecedor.
Devemos lembrar que, para guiar a inovação rumo a um autêntico desenvolvimento humano que não prejudique as pessoas e não crie fortes desequilíbrios globais, é importante combinar ética com tecnologia.
Tornar esse valor moral em algo compreensível para uma máquina envolve a criação de uma linguagem universal que coloque o ser humano no centro: uma algor-ética que recorde constantemente que a máquina está a serviço do ser humano, e não o contrário.
FECHAR
Comunique à redação erros de português, de informação ou técnicos encontrados nesta página:
Inteligência artificial e ética: um estado da arte. Artigo de Paolo Benanti - Instituto Humanitas Unisinos - IHU