05 Fevereiro 2020
A tendência de radicalização progressiva no conteúdo consumido pelos usuários do YouTube tem sido um tema recorrente em pesquisas jornalísticas e de organizações especializadas, nos últimos anos. Um estudo apresentado esta semana na Conferência Tecnológica FAT, que nesta semana reúne em Barcelona especialistas mundiais em justiça e transparência de algoritmos, conseguiu provar que “os usuários migram constantemente de conteúdo mais moderado para mais extremo” e que boa parte dos membros que integram as comunidades de extrema direita na plataforma começaram a assistir a vídeos sobre temas semelhantes, mas com conteúdo muito menos radical.
A reportagem é de Calor del Castilho, publicada por El Diario, 30-01-2020. A tradução é do Cepat.
“Encontramos fortes evidências de radicalização entre os usuários do YouTube e que o sistema de recomendação de conteúdos permite a descoberta de canais de extrema direita, mesmo em um cenário sem personalização” do algoritmo, afirmam os pesquisadores da Escola Politécnica de Lausanne (Suíça), da Universidade Federal de Minas Gerais (Brasil) e da Universidade de Harvard (Estados Unidos).
A pesquisa foi baseada na análise de 330.925 vídeos, de 349 canais do YouTube, além dos mais de dois milhões de vídeos e dez milhões de canais recomendados pelo algoritmo da plataforma, com base na visualização dos primeiros. Para seguir o rastro dos usuários e comprovar a evolução do conteúdo que consumiram, os autores analisaram seus comentários nesses vídeos, mais de 72 milhões no total.
Os comentários e vídeos analisados pertenciam a três comunidades “tradicionalmente associadas à radicalização”: a Intellectual Dark Web, que discute questões controversas como a relação entre raça e coeficiente intelectual, embora não necessariamente apoie ideias extremistas e racistas, a Alt-lite, um conceito que surgiu nos Estados Unidos em 2017 para nomear uma nova corrente à direita, caracterizada por rejeitar o conservadorismo moderado tradicional, mas também ideias da extrema direita, como supremacismo branco, e, por último, a Alt-right ou extrema direita, uma comunidade cujos vídeos espalham abertamente ideias racistas, machistas e negacionistas das mudanças climáticas.
O que os pesquisadores descobriram é que é fácil que os vídeos das duas primeiras comunidades, mais moderadas, sejam promovidos pela plataforma com uma simples busca de conteúdos. Não acontece o mesmo com os que podem ser classificados como de extrema direita, que não aparecem nessas buscas superficiais. No entanto, a partir do estudo dos comentários nos vídeos da Intellectual Dark Web e da Alt-lite, os pesquisadores descobriram que 26% dos usuários que comentaram esses vídeos apareciam, “com o passar dos anos”, comentando vídeos rotulados como de extrema direita, devido às recomendações.
O estudo mostra que essa tendência foi se acelerando a partir de 2016, quando Donald Trump apareceu em cena. Os maiores saltos das comunidades mais moderadas em direção à extrema direita são produzidos precisamente a partir dessa data. Por exemplo, até 12% dos usuários que começaram a comentar vídeos moderados, em 2017, foram expostos a conteúdo de extrema direita pela plataforma nos próximos 18 meses. Esse número é equivalente a 60.000 pessoas.
Para comparar a transferência de usuários entre as comunidades da Intellectual Dark Web e da Alt-lite com a extrema direita, a partir do que se produz em outros tipos de canais, os pesquisadores também analisaram quantos consumidores de vídeos de notícias acabam aparecendo como comentaristas dos conteúdos radicais. Nesse caso, a porcentagem fica em torno de 1%.
Embora tudo sugira que o algoritmo do YouTube direcione os usuários da plataforma para conteúdos cada vez mais extremos, os pesquisadores esclarecem que não têm provas disso. Entre outras coisas, porque não introduziram a variável da personalização na recomendação de conteúdos. “Embora argumentemos que há fortes evidências da existência de espirais de radicalização no YouTube, nosso trabalho fornece poucas informações sobre o porquê dessas espirais. Elucidar essas causas será importante para entender melhor os processos de radicalização e o impacto das redes sociais em nossas vidas”.
“Até onde sabemos, esta é a primeira auditoria quantitativa, em larga escala, da radicalização de usuários no YouTube”, defendem.
“Discordamos totalmente da metodologia, dos dados e, mais importante, das conclusões que foram tiradas dessa nova pesquisa”, explicou um porta-voz do YouTube em comunicado enviado a este jornal. “Embora aceitemos a pesquisa externa, este estudo não reflete as mudanças que ocorreram como resultado de nossa política do discurso de ódio e as atualizações das recomendações”, argumentam.
Com relação à metodologia, os pesquisadores argumentam que rastrear os comentários dos usuários é um bom método de análise, pois os vídeos das três comunidades analisadas apresentam um alto grau de engajamento. No caso da extrema direita, é particularmente alto, já que um em cada cinco usuários que assistem a um vídeo com esse tipo de conteúdo o comenta. Além disso, essas contribuições são extremamente positivas: dos 900 comentários selecionados aleatoriamente para analisar esse problema (300 em cada comunidade), “apenas 5 poderiam ser interpretados como críticos ao vídeo ao qual estavam associados”, destaca o estudo.
“Nos últimos anos, investimos fortemente em políticas, recursos e produtos necessários para proteger a comunidade do YouTube”, respondem pela empresa, de propriedade do Google. “Alteramos nossos algoritmos de pesquisa para garantir que o conteúdo mais fidedigno apareça e seja classificado com destaque nos resultados e nas recomendações de buscas, e começamos a reduzir as recomendações de conteúdo e vídeos de caráter duvidoso, que podem desinformar os usuários de forma prejudicial”. Afirmam que, graças a essa mudança, as recomendações desse tipo de conteúdo extremista, por parte de seu algoritmo, foram reduzidas em 50%.
FECHAR
Comunique à redação erros de português, de informação ou técnicos encontrados nesta página:
YouTube conduz usuários a vídeos radicais e de extrema direita, diz estudo - Instituto Humanitas Unisinos - IHU