24 Mai 2019
Assistentes digitais que respondem com voz feminina e que são apresentados como mulheres estão reforçando estereótipos sexistas, segundo um relatório da Organização das Nações Unidas (ONU) divulgado nesta quarta-feira, 23/05.
A reportagem é publicada por Convergência Digital, 23-05-2019.
De acordo com o estudo, assistentes virtuais como Siri, da Apple, Alexa, da Amazon, e Cortana, da Microsoft, foi concebido para parecer femininos, dos nomes até às vozes e personalidades e desenvolvidos para serem submissos e servis, o que inclui responder educadamente a insultos, e por isso reforçam a tendência de gênero e normalizam o assédio sexista, disseram pesquisadores da Organização das Nações Unidas para a Educação, a Ciência e a Cultura (Unesco).
“A submissão da Siri ao abuso de gênero —e a servilidade expressa por tantos outros assistentes digitais projetados como mulheres jovens— fornece uma ilustração poderosa das tendências de gênero codificadas em produtos tecnológicos”, disse. Apple, Amazon e Microsoft não estavam disponíveis de imediato para comentar.
Os assistentes de voz se tornaram parte da vida cotidiana de muitas pessoas e hoje representam quase um quinto de todas as pesquisas na internet, disse o relatório, que argumentou que eles podem ter um impacto cultural considerável. “O mundo precisa prestar muito mais atenção a como, quando e se as tecnologias de Inteligência Artificial recebem um gênero e, o que é crucial, quem lhes dá um gênero”, disse Saniye Gulser Corat, diretora de igualdade de gênero da Unesco.
O relatório pediu às empresas que adotem ações como parar de criar assistentes digitais com voz feminina como padrão, explorar opções de gênero neutro e programar os assistentes para que desestimulem insultos com base no gênero e a linguagem abusiva.
FECHAR
Comunique à redação erros de português, de informação ou técnicos encontrados nesta página:
ONU: Inteligência Artificial cria assistentes virtuais sexistas - Instituto Humanitas Unisinos - IHU