19 Abril 2021
Nos Estados Unidos, ela é usada pela empresa Cogito para tornar os operadores de call-center mais empáticos. Até onde isso poderá chegar?
A reportagem é de Silvia Renda, publicada por L’HuffingtonPost.it, 16-04-2021. A tradução é de Moisés Sbardelotto.
Uma máquina pode nos ensinar a ser mais humanos? Nos Estados Unidos, uma empresa promete fazer isso corrigindo o comportamento dos operadores de call-center que não atendam aos padrões de empatia exigidos.
A Cogito utiliza uma inteligência artificial que monitora as palavras utilizadas e o tom dos telefonemas. Funciona assim: se o cliente começar a parecer irritado ou perturbado, um sinal de empatia será enviado ao operador, convidando-o a se relacionar de outra forma.
O objetivo é “ajudar as pessoas a serem a melhor versão de si mesmas”, diz o slogan da empresa. Pouco importa se esse operador tem um tom de voz cansado por ter chegado ao fim de um turno de trabalho extenuante, se talvez naquele dia ele esteja com algum problema de saúde ou se o seu humor não estiver dos melhores porque foi deixado pelo seu parceiro.
A inteligência artificial não leva em conta a humanidade, mas pretende ensinar humanidade, robotizando o empregado. Um paradoxo que levanta uma questão: até que ponto podemos legitimar os controles do Big Brother no local de trabalho?
Em fevereiro deste ano, a Organização Internacional do Trabalho de Genebra elaborou um relatório sobre as condições de trabalho em tempos de algoritmos. “Dos dados empíricos sobre as condições dos trabalhadores das plataformas digitais, emergiu uma sujeição total ao algoritmo: a impossibilidade de se associar a sindicatos, de dialogar com um ser humano caso algo dê errado é desastrosa para os trabalhadores”, explica Andrea Renda, professor de Políticas Digitais do Instituto Universitário Europeu.
“Não faltam apenas as garantias conquistadas em anos de lutas pelos direitos dos trabalhadores, mas também nasce a frustração ao se ver julgado sem uma interlocução de verdade, com fortes impactos sobre a saúde mental.”
É em cenários desse tipo que nascem situações alarmantes como a dos trabalhadores da Amazon que usam fraldas, impossibilitados de parar para atender às suas necessidades fisiológicas, pois do contrário fariam menos entregas.
“O algoritmo que julga se você está abaixo ou acima do padrão se baseia em critérios de otimização da empresa, não em um parâmetro de humanidade, dignidade ou compatibilidade jurídica. Para alcançar o objetivo, você é exigido a ser um super-herói, tanto pela velocidade quanto pela ausência de necessidades fisiológicas.”
Além do humano, como um robô. O impulso é à padronização do comportamento; a consequência é a intrusão na esfera privada da atitude a ser mantida no local de trabalho.
“Temos que ter muita atenção, porque a inteligência artificial terá um impacto generalizado sobre as nossas vidas”, disse o professor Renda. “É possível imaginar que isso aconteça em todos os locais de trabalho, com a consequente perda de controle e de humanidade no modo como nos organizamos nossas interações sociais.”
A inteligência artificial é capaz de detectar um tom de voz que se associa a um comportamento agressivo, interceptar termos considerados inadequados. O risco é que esses dados também fiquem acessíveis ao empregador, que depois poderá penalizar os sujeitos que receberem mais indicações do sistema de inteligência artificial. Mas o modo como o operador pronuncia as palavras poderia ser avaliada como inadequado, independentemente do respeito ou não pela deontologia.
“Esses sistemas precisam de bilhões de exemplos para serem treinados”, explica Renda. “No início, o sistema não será preciso. Ele precisará ser apoiado pela atividade humana. Depois, a máquina poderá se tornar mais autônoma. Em geral, trata-se de sistemas que usam redes neurais e, portanto, se apresentam como ‘caixas pretas’ que formulam decisões sobre bases frequentemente inescrutáveis. Mas o que acontece quando um algoritmo afirma que o trabalhador teve um comportamento equivocado, este o contesta, e ninguém pode saber como a IA chegou a essa conclusão? Até que ponto podemos penalizar determinados comportamentos, sem conhecer o contexto, com base em sistemas que estão longe de ser precisos e transparentes?”
Nos Estados Unidos, a análise do algoritmo Compas foi utilizado para decidir a quais detentos se concederia a liberdade condicional. Mas um algoritmo, programado pelos seres humanos, pode ser infectado com os seus preconceitos. Por exemplo, pode-se atribuir a criminosos conclamados uma taxa de periculosidade de 3 de 10 porque são brancos, enquanto mães de família com um histórico menos perturbador receberão 8 de 10 porque são afro-americanas.
“Quem projeta o algoritmo pode fazer isso de forma imperfeita ou usar dados pouco representativos”, diz Renda, “Como um todo, a inteligência artificial é tudo menos inteligente: ela não entende o contexto das suas ações, não entende se o trabalhador no fim da jornada teve um resfriado, um luto em família. Ela sequer entende se foi provocado pelo cliente. Não sabe e não quer saber.”
O risco é que se desencadeie um círculo vicioso: os ritmos de trabalho são massacrantes, o trabalhador fica nervoso, a inteligência artificial o penaliza, isso o deixa ainda mais nervoso, para se recuperar ele precisa se submeter a ritmos de trabalho ainda mais massacrantes, e a saúde mental do trabalhador é destruída: “A necessidade de se ocupar da saúde mental do trabalhador é cada vez mais sentida em palavras, mas pouco traduzida em políticas concretas. Estamos diante de uma transição que tem um impacto notável sobre a alienação. O que não aconteceu totalmente com a primeira revolução industrial está acontecendo hoje, com a era das fraldas.”
Entre os vários aspectos grotescos dessa situação, diz o professor Renda, está o fato de que um trabalhador nessas condições estará cada vez mais em uma condição de desvantagem. Uma vez treinada, a inteligência artificial poderia chegar a substituir o operador de call-center, assim como o radiologista, o piloto e muitos outros.
Quanto mais se protesta, mais se acelera o processo de substituição: “Protestar muito não vale a pena, se não houver um apoio do governo, e os governos não apoiam muito os trabalhadores, porque isso significaria aumentar os custos para as empresas e, portanto, desencorajá-los a investir no seu país. ‘There’s a new kid in town’, cantavam os Eagles há algum tempo. Tem alguém que pode tirar o nosso posto de trabalho, que antes não existia”.
Alguém que trabalha 24 horas por dia, sete dias por semana, não sai de férias, não “chuta o balde”, não precisa ser pago e não engravida.
FECHAR
Comunique à redação erros de português, de informação ou técnicos encontrados nesta página:
A inteligência artificial pode nos ensinar a ser mais humanos? - Instituto Humanitas Unisinos - IHU