É possível confiar na inteligência artificial?

Mais Lidos

  • “A destruição das florestas não se deve apenas ao que comemos, mas também ao que vestimos”. Entrevista com Rubens Carvalho

    LER MAIS
  • Povos Indígenas em debate no IHU. Do extermínio à resistência!

    LER MAIS
  • “Quanto sangue palestino deve fluir para lavar a sua culpa pelo Holocausto?”, questiona Varoufakis

    LER MAIS

Revista ihu on-line

Zooliteratura. A virada animal e vegetal contra o antropocentrismo

Edição: 552

Leia mais

Modernismos. A fratura entre a modernidade artística e social no Brasil

Edição: 551

Leia mais

Metaverso. A experiência humana sob outros horizontes

Edição: 550

Leia mais

20 Julho 2021

 

A difusão dos instrumentos algorítmicos, sob cuja definição entendem-se múltiplos fenômenos, requer um “leito” de confiança, a fim de criar uma AI trustworthy [inteligência artificial confiável].

O comentário é de Jasmine Milone, advogada italiana, em artigo publicado por Apostolato Digitale, 16-07-2021. A tradução é de Moisés Sbardelotto.

Precisamente sobre esse tema, o National Institute of Standards and Technology (NIST), dos Estados Unidos, anunciou que está trabalhando em um esboço do relatório interagências do NIST (NISTIR 8332, disponível em inglês aqui).

“Muitos esforços atuais visam a avaliar a confiabilidade do sistema de inteligência artificial por meio de medições de precisão, confiabilidade e explicabilidade, entre outras características do sistema. Embora essas características sejam necessárias, determinar se o sistema de inteligência artificial é confiável porque atende aos requisitos do seu sistema não garantirá uma adoção generalizada da inteligência artificial. É o usuário, o ser humano afetado pela inteligência artificial, quem, em última análise, deposita a sua confiança no sistema.”

Pedir que a inteligência artificial realize a mesma tarefa em duas ocasiões diferentes pode levar a duas respostas diferentes, porque a inteligência artificial “aprendeu” no tempo entre as duas demandas. Dado esse grau significativo de imprevisibilidade, é o usuário quem, em última análise, deve decidir se confia ou não na inteligência artificial.

O conceito de “confiança”, que é definido como “traço humano”, “serve como um mecanismo para reduzir a complexidade”.

Serdar Kaya escreve: “Em ambientes ancestrais, a desconfiança era essencial para a sobrevivência, pois fazia com que os humanos fossem cautelosos em relação a seus inimigos mais mortais: os outros humanos. Os indivíduos que consideravam os outros humanos como potencialmente perigosos e exploradores tinham maior probabilidade de permanecer vivos e passar seus genes para as gerações futuras”.

A confiança, portanto, torna-se a pedra angular de um mecanismo compartilhado de aceitação do novo por parte da comunidade. A confiança está inevitavelmente ligada à percepção do risco em um determinado contexto.

Seguindo a teoria dos jogos, a confiança e a desconfiança condicionais protegem o indivíduo de enganar os outros, embora continuando a recolher os potenciais benefícios da cooperação.

Kevin Anthony Hoff e Masooda Bashir, autores de Trust in Automation, definiram três fontes de variabilidade na confiança na automação: disposicional, relacional e adquirida. Os fatores de disposição incluem a idade, a cultura e a personalidade do fiduciário (operador ou usuário da automação).

Os fatores relacionais dizem respeito ao contexto da interação homem-automação e a vários aspectos da tarefa, como a carga de trabalho e o risco.

A confiança adquirida é resultado das características de desempenha do sistema e de design. Se as pessoas esperam que a automação funcione de modo impecável, os erros cometidos pela automação são mais prejudiciais para a confiança do que os erros cometidos pelos recursos não automatizados.

Os estudos descobriram que uma automação mais antropomórfica gera maior “resiliência à confiança”. Assim, citando Luhmann, segue o corolário de que “a confiança é cada vez mais demandada como um meio para suportar a complexidade do futuro que a tecnologia gerará”.

De acordo com Bill Gates, a confiabilidade de um sistema se apoia no fato de poder confiar legitimamente no serviço que ele fornece e na capacidade de executar como e conforme necessário, e é esta segunda definição que encoraja a criação de características que uma inteligência artificial deve ter para ser confiável.

Dois fenômenos são, então, distinguidos, o User Trust Potential (UTP), ou seja, o potencial de confiança dos usuários, que consiste nos atributos pessoais intrínsecos do usuário, e a Perceived System Trustworthiness (PST), equivalente à confiabilidade percebida do sistema, que consiste em uma relação entre a experiência do usuário (User Experience, UX) e a confiabilidade técnica: a usabilidade, o principal componente da UX, é composta por três métricas de acordo com um padrão internacional, isto é, eficiência, eficácia e satisfação do usuário.

No caso da inteligência artificial, são identificadas nove características que definem a confiabilidade do sistema: Precisão, Confiabilidade, Resiliência, Objetividade, Segurança, Explicabilidade, Segurança, Responsabilidade e Privacidade.

Em conclusão, “é por causa dessa crescente complexidade tecnológica que precisamos olhar para a perspectiva do usuário se quisermos entender a confiança na inteligência artificial. A confiança na inteligência artificial dependerá de como o usuário humano percebe o sistema. (...) É essa confiança, com base nas percepções do usuário, que será necessária para qualquer colaboração humano- inteligência artificial”.

 

Leia mais

Comunicar erro

close

FECHAR

Comunicar erro.

Comunique à redação erros de português, de informação ou técnicos encontrados nesta página:

É possível confiar na inteligência artificial? - Instituto Humanitas Unisinos - IHU