29 Novembro 2025
Um estudo demonstra que a ordem em que plataformas como a X exibem o conteúdo aos seus usuários afeta a animosidade destes em relação a outros grupos ideológicos.
A informação é de Manuel G. Pascual, publicada por El País, 28-11-2025.
Uma equipe de pesquisadores americanos demonstrou que a ordem em que as mensagens políticas são exibidas nas plataformas de mídia social de fato afeta a polarização, um dos temas mais debatidos desde o surgimento das mídias sociais e as consequentes divisões em grande parte da nossa sociedade. O fenômeno é igualmente forte independentemente da orientação política do usuário, enfatizam os pesquisadores em um artigo publicado hoje na revista Science.
As redes sociais são uma importante fonte de informação política. Para centenas de milhões de pessoas em todo o mundo, elas representam o principal canal de conscientização política: por meio delas, recebem mensagens políticas, compartilham-nas e expressam suas opiniões. Dada a relevância das redes sociais nesse âmbito, compreender o funcionamento dos algoritmos que operam nessas plataformas seria crucial, mas a falta de transparência é a norma no setor. Portanto, é extremamente difícil estimar em que medida a escolha de cada usuário sobre qual conteúdo considera mais relevante influencia a formação de suas visões políticas.
Como os pesquisadores contornaram a opacidade dos algoritmos para alterar a ordem das mensagens recebidas pelos usuários de redes sociais? Tiziano Piccardi, da Universidade Stanford, e seus colegas desenvolveram uma extensão para navegadores que intercepta e reordena o feed (a cronologia das postagens) de determinadas redes sociais em tempo real. A ferramenta utiliza um modelo de linguagem abrangente (LLM, na sigla em inglês) para atribuir uma pontuação a cada conteúdo, calibrando o grau em que ele inclui atitudes antidemocráticas e animosidade partidária (AAPA, na sigla em inglês). Uma vez pontuados, os comentários são reordenados de acordo, tudo isso sem a cooperação da plataforma (e fora do alcance de seu algoritmo).
O experimento foi conduzido com 1.256 participantes devidamente informados. Decidiu-se focar em X por ser a rede social mais utilizada nos EUA para expressar opiniões políticas, e foi realizado nas semanas que antecederam a eleição presidencial de 2024 para garantir uma alta circulação de mensagens políticas.
Os participantes do experimento foram expostos aleatoriamente, durante uma semana, a dois tipos de conteúdo: um com muito conteúdo polarizado (AAPA) e outro com muito pouco. “Medimos os efeitos dessas intervenções na polarização efetiva (ou seja, nos sentimentos expressos pelos indivíduos em relação ao grupo político em questão) e na experiência emocional (raiva, tristeza, excitação ou calma) por meio de questionários aplicados durante e após o experimento”, afirmam Piccardi e seus colegas.
Os resultados foram comparados com os do grupo de controle, cujos feeds dos membros não foram manipulados, e as descobertas mostraram que a reordenação do conteúdo influenciou significativamente a polarização afetiva, sem diferenças significativas com base nas preferências políticas. “Manipular o algoritmo do feed causou mudanças nas emoções negativas dos participantes durante o experimento, mas não posteriormente”, enfatizam os autores.
O experimento também demonstra que seria possível reduzir a polarização das redes sociais simplesmente reorganizando as postagens, tornando menos visíveis aquelas com conteúdo antidemocrático. Michael Bernstein, professor de ciência da computação na Universidade Stanford e coautor do estudo, acredita que a ferramenta também poderia abrir novos caminhos para promover maior confiança social.
Uma adaptação às novas plataformas
Nos últimos anos, as plataformas de redes sociais sofreram mudanças significativas que afetam a disseminação de conteúdo político. As equipes de moderação de conteúdo, responsáveis por filtrar mensagens tóxicas, ilegais ou de ódio, foram reduzidas, como no caso do Meta, ou eliminadas por completo, como fez o X. Essa tarefa foi delegada às notas da comunidade. A brecha por onde o conteúdo problemático agora escapa é enorme e, segundo diversos estudos, a redução dos filtros aumenta o ódio e o assédio que circulam nessas plataformas.
Além disso, a própria dinâmica das redes sociais mudou drasticamente. Enquanto antes víamos em nossos feeds o conteúdo mais comentado ou o que nossos contatos mais curtiam, agora o algoritmo assume a responsabilidade, decidindo o que cada pessoa vê e, portanto, o que pode ou não se tornar viral. Daí a importância de poder mensurar o impacto do algoritmo na formação ou no reforço de ideias políticas.
“Os pesquisadores estão enfrentando limitações sem precedentes, já que as plataformas de mídia social estão optando por não compartilhar dados. Daí a importância de Piccardi e seus colegas apresentarem uma metodologia de pesquisa que não exige a colaboração explícita das plataformas”, afirma Jennifer Allen, professora do Departamento de Tecnologia, Operações e Estatística da Universidade de Nova York, que não participou do estudo.
Allen também acredita que o modelo implementado por Piccardi e sua equipe poderia ser replicado para outras redes sociais e que os experimentos poderiam ser repetidos em diferentes momentos para verificar sua validade. Allen acredita que a abordagem adotada pelos pesquisadores liderados por Piccardi é uma forma de pesquisa criativa com uma metodologia que se adapta à situação atual.
Leia mais
- Digitalização, política e inteligência artificial
- Sam Altman se tornou o maior gênio da IA vendendo o apocalipse
- Oligarcas intelectuais legisladores. Artigo de Evgeny Morozov
- OpenAI não fala sobre consumo de energia do ChatGPT. Artigo de Vivaldo José Breternitz
- Uma luta pelo poder, uma rivalidade e uma bomba de precisão: a história por trás da oferta de Elon Musk pela OpenAI
- Até os próprios trabalhadores da OpenAI desaprovam a tendência da inteligência artificial
- OpenAI agora diz que teria sido “impossível” treinar ChatGPT sem violar direitos autorais
- O fascismo do fim dos tempos – e o refúgio dos bilionários. Artigo de Naomi Klein e Astra Taylor
- Elon Musk, Peter Thiel e a 'Máfia do PayPal': o clube dos tecno-oligarcas com uma inclinação supremacista
- Revelações e tecnocracia. Artigo de Gloria Origgi
- Musk, Trump e os novos ídolos. Artigo de Antonio Scurati
- Os super-ricos no lugar do Estado: uma ameaça à democracia. Artigo de Stefano Zamagni
- Por trás de Musk e Trump: o surgimento de uma elite fora da lei. Artigo de Rubén Juste de Ancos
- Democracia em risco: entre super-ricos e capitalistas é preciso um “habeas mentem”. Artigo de Stefano Zamagni
- “Estamos na época do ódio social. Comunidade em risco, é preciso
- Por que os EUA temem que a China já os esteja ultrapassando na corrida da inteligência artificial
- Huang, o negociador: O líder da Nvidia é a voz principal para quebrar o impasse entre EUA e China em inteligência artificial
- Uma proibição de regulamentações sobre inteligência artificial? Sim, isso quase aconteceu. Artigo de Mary Graw Leary
- Inteligência artificial (de)generativa. Artigo de Ricardo Antunes
- O frágil equilíbrio de nosso planeta e o imperativo de uma conexão entre tecnologia e ética. Entrevista especial com Jelson Oliveira
- Vai e vem de Sam Altman reaviva debate sobre futuro da IA