22 Outubro 2021
O algoritmo que facilita a circulação de discursos de ódio está se tornando um bumerangue para o Facebook e Instagram, mas algumas denúncias apontam que a empresa de Mark Zuckerberg não decide modificá-lo porque o mecanismo gera interações, mesmo que ataque grupos vulneráveis e contradiga o objetivo de criar uma rede “significativa e saudável”, considera Ezequiel Ipar, diretor do Laboratório de Estudos sobre Democracia e Autoritarismo - LEDA.
A reportagem-entrevista é de Guillermo Lipis, publicada por Telám, 16-10-2021. A tradução é do Cepat.
Os textos que promovem discursos de ódio, pelo que parece, se aprofundaram com a modificação do algoritmo do Facebook, o verdadeiro gestor da interação entre seus usuários.
O assunto ganhou mais força quando a funcionária dessa empresa, Frances Haugen, pediu a regulamentação do gigante das redes sociais a quem acusou, diante de parlamentares dos Estados Unidos, de “financiar seus lucros” com a segurança dos usuários.
Haugen revelou que o Facebook sabe que os seus sites são potencialmente prejudiciais à saúde mental dos jovens. “Quase ninguém sabe o que acontece dentro do Facebook. Omitem informações ao público, a seus acionistas e aos governos”, acrescentou.
Na Argentina, pelo LEDA, da Universidade Nacional de San Martín – UNSAM, com pesquisadores do CONICET, Ipar e sua equipe pesquisam essas redes e as consequências da aplicação do algoritmo desenhado por gente de Zuckerberg.
Haugen disse que o Facebook “pode responder e reconhecer de 3 a 5% dos discursos de ódio das mensagens dos 3 bilhões de usuários. Mas parece que os controles funcionam em 50 línguas, e o Facebook tem usuários em 5.500. Ou seja, 5.450 vivem em um far west digital”, sentenciou Ipar.
Como exemplo do discurso de ódio e a falta de controles da rede, em outubro de 2018, The New York Times denunciou que militares birmaneses usaram o Facebook para justificar uma limpeza étnica contra os rohingyas, uma minoria muçulmana, e argumentaram que o islã representa uma ameaça para o budismo.
Ipar também lembrou “casos de incitação à violência interétnica na Etiópia”.
Em novembro de 2019, a BBC reproduziu o depoimento do atleta etíope Haile Gebrselassie, que denunciou o Facebook como responsável pela matança de 78 pessoas devido à “distribuição de notícias falsas”, explicou.
“Começaram a procurar onde o discurso de ódio havia sido gerado e descobriram que foi por meio de postagens no Facebook”, explicou o pesquisador.
“Não foi o rádio ou televisão, nem um ditador falando de um meio de comunicação oficial, foi a partir da capilaridade do Facebook que foi gerada a sensação de medo”, acrescentou.
“Contudo, a forma como o Facebook buscou “resolver esses problemas acabou acentuando-os”, disse sobre a reformulação que fizeram do algoritmo.
Abaixo, as passagens centrais da entrevista com Ipar.
Qual é o objetivo do algoritmo?
Conectar as pessoas e saber o que pode despertar interesse em um usuário, no que poderá colocar a sua atenção. Por isso, é dito que o Facebook domina a atenção dos indivíduos. É isso o que o algoritmo busca: chamar a sua atenção e conectar os usuários.
Como associa essa função do algoritmo com a difusão dos discursos de ódio?
Quando começaram a cair as interações entre indivíduos, em 2017/2018, o Facebook redesenhou seu algoritmo para que, disseram, os usuários tivessem “uma experiência mais saudável e significativa”. O que mostrariam de modo privilegiado não seria mais publicidade, mas o que fosse interessante para seus amigos, para promover mais “likes”, compartilhar mais conteúdos e aumentar o tráfico de comentários.
Foi assim que detectaram que começaram a se destacar os discursos que incitavam o ódio nas interações. Aprofundou-se uma interação relacionada ao narcisismo do ódio, mas não a consideraram porque os algoritmos quantificam a interação e a reação dos usuários, e não a qualidade ou o conteúdo das respostas.
O algoritmo facilita a circulação de mensagens, e os discursos de ódio produziram mais interações na rede. Entre o mais saudável e o mais significativo, o algoritmo promove o significativo para gerar maior tráfego na rede. Sendo assim, é muito provável que o algoritmo do Facebook esteja incitando campanhas de ódio.
O algoritmo avalia a intensidade da circulação das mensagens, sem importar o conteúdo dos mesmos. É um fato matemático sem conotação humana. Por que o Facebook não modifica seu algoritmo?
Porque verificaram que o que mais potencializa a circulação de mensagens são, justamente, as mensagens com conotações de discurso de ódio.
O que fazem com esse dado, sabendo que acabam facilitando tais mensagens?
Estamos exatamente nesse momento. Haugen se deu conta que no Facebook sabiam o que estavam mobilizando com o seu algoritmo e que também estavam dispostos a não fazer nada para modificá-lo. Agora, há uma resposta curiosa do Facebook porque começam a sugerir a necessidade de certa regulamentação estatal, pois entenderam que há algo no próprio espaço digital, que eles criaram, que está intrinsecamente descontrolado e que pode começar a afetar a plataforma e os seus negócios.
Acredito que perceberam que também existe o risco de que uma boa porcentagem de seus usuários se retirem das redes por essa distribuição de discursos de ódio e violência. Eles próprios estão sugerindo que para o Facebook ser “significativo e saudável”, agora, é preciso algum tipo de avaliação e supervisão, saber o que está acontecendo na rede, e uma regulamentação externa.
Mas não estão permitindo essa janela de observação.
Ainda não, e esse é o conflito no qual estamos agora. Por um lado, em que medida – a partir dessa crise – o Facebook tornará públicas as informações que dispõe e em que medida estão dispostos a intervir na rede, conforme seus próprios estudos sugerem. Esses documentos demonstram que existem profissionais no Facebook que já possuem alternativas para mudar a circulação dos discursos de ódio, mas são mudanças estruturais que podem colocar em jogo uma parte do negócio.
Uma de suas equipes estudou os temas da violência, assédio e discurso de ódio no algoritmo e sugeriu retirar a possibilidade de compartilhar conteúdos maliciosos. Não os eliminar, mas que também não possam ser compartilhados. Parece que fizeram um teste e funcionou, mas decidiram não adotar.
O relato diz que esse documento interno chegou às máximas autoridades da empresa e a resposta foi que a solução era muito boa, mas que a deixarão como uma alternativa de emergência. Imagino que se negam a realizar a mudança porque consideram que a violência e o discurso de ódio são um problema social que se expressa na rede social, mas que não é um problema da rede social em si.
FECHAR
Comunique à redação erros de português, de informação ou técnicos encontrados nesta página:
O algoritmo que promove discursos de ódio se torna um bumerangue contra o Facebook - Instituto Humanitas Unisinos - IHU