Para o pesquisador, o aplicativo, que nasce apenas com o propósito de troca de mensagens, se torna perigoso por promover uma viralização descontrolada em articulação com outras plataformas
Olhando as imagens dos atos terroristas em Brasília no domingo, 08-01-2023, é inevitável que nos questionemos o que faz estas pessoas agirem daquela forma. E mais: o que pode fazer com que as pessoas acreditem e defendam uma narrativa golpista tão cegamente? Para o pesquisador e doutor em Comunicação João Guilherme Bastos dos Santos, tais movimentos podem ser lidos como o comprometimento do funcionamento saudável de um sistema democrático.
E esse adoecimento da democracia tem na desinformação um ponto central de contaminação. Nas suas pesquisas, tem percebido que tal contaminação se dá num sentido amplo, como num ecossistema de desinformação, que vai chegando a cada pessoa e corroendo seu próprio entendimento. Nessa engrenagem, o WhatsApp, que se tornou uma arma de viralização, tem sua centralidade. “Estamos falando da difusão sistemática de informações falsas e da intenção de mudar o comportamento das pessoas para ter um impacto político específico e estratégico. É a mobilização visando alterar o funcionamento do que seria ‘natural’ em um processo eleitoral”, reforça. Na entrevista a seguir, concedida via videoconferência ao Instituto Humanitas Unisinos – IHU, Santos explica que é importante entender que o WhatsApp não é o maior problema. “O WhatsApp, dentro do ecossistema de plataforma que temos hoje, traz potencialidade que não haveria sem ele. Dificulta apagar informação, impedir que determinado conteúdo não chegue mais nas pessoas, dificulta uma série de mecanismos usados nas campanhas de desinformação. Mas não quer dizer que se a gente tirar o aplicativo desse sistema, ele passa a ser saudável”, explica. É o caso, por exemplo, de seu funcionamento associado a plataformas como YouTube. Por mais que se tire uma desinformação da plataforma, ele pode seguir circulando em grupos de WhatsApp porque as pessoas podem baixar o vídeo em seus celulares.
Isso é extremamente nocivo aos sistemas democráticos e traz consequências sérias, aponta Santos, que vão desde casos macro, como comprometer uma eleição, plebiscito, etc., como ameaçar a integridade individual das pessoas. “Veja a questão do funcionário do Banco do Brasil, que parece que não estava nem em Brasília nos atos de domingo, mas que foi erroneamente associado à imagem de uma pessoa simulando que defecava dentro de um edifício público durante o quebra-quebra”, exemplifica. Nesse caso, o servidor conseguiu provar que a informação era falsa, mas, até hoje, ele e sua família sofrem consequências desses atos.
Ao longo da entrevista, Santos também analisa o papel desse ecossistema de desinformação na articulação para a realização dos atos terroristas de Brasília. Mais do que fazer a cabeça das pessoas para participarem do crime, a implantação da narrativa golpista no tecido social tem se tornado um negócio. Vide as imagens produzidas e viralizadas do quebra-quebra. “Temos vários influenciadores, cada um com seu próprio nicho, seu próprio público, competindo entre si sobre que tem a melhor imagem, quem está mais engajado e quem estava participando mais, porque isso virou, de algum modo, um mercado”, completa.
Por fim, o entrevistado sinaliza o grande debate que ainda precisamos atravessar quanto à regulação de plataformas e aplicativos de mensagens para salvaguardar nossa democracia. “Esse debate vem muito contaminado, porque se quer transferir todo o histórico de debates do que se vem falando de regulação de televisão, concessões públicas, etc., para as plataformas e redes sociais. Mas existe uma diferença fundamental, que é a produção de conteúdo, que nessas plataformas é descentralizada e o controle de conteúdo é centralizado”, resume.
João Guilherme Bastos dos Santos (Foto: Arquivo pessoal)
João Guilherme Bastos dos Santos é analista de dados da Rooted in Trust Brazil (Internews), membro do Carnegie’s Partnership for Countering Influence Operations – PCIO e pesquisador do Instituto Nacional de Ciência e Tecnologia em Democracia Digital – INCT.DD. É doutor em comunicação pela Universidade do Estado do Rio de Janeiro – UERJ e realizou pós-doutorado no INCT.DD. De suas inúmeras publicações, destacamos o artigo “WhatsApp, política mobile e desinformação: a hidra nas eleições presidenciais de 2018”, disponível aqui.
IHU – Segundo estudos que tem realizado, o WhatsApp é o principal canal de disseminação de desinformação? Como funciona essa engrenagem de disseminação de desinformação a partir do aplicativo de mensagens?
João Guilherme Bastos dos Santos – Primeiro, precisamos ter clareza sobre o que entendemos por desinformação. Desinformação, diferente de outros termos como disinformation, male information, infodemia e por aí vai, é anterior à internet. Envolve uma campanha estratégica em que você usa uma informação para tentar mudar o comportamento de um grupo específico, porque ele pode mudar a correlação de forças em determinado momento, seja uma guerra, seja uma eleição ou plebiscito.
Nesse sentido, as campanhas de desinformação ganham muito quando se podem segmentar esses grupos. Pois se deseja mudar o comportamento de um grupo determinado, sabendo que grupo é esse, se tem mais tendência a se engajar ou não. Por isso é importante saber, por exemplo, a quais informações aquela pessoa reage de modo mais sensível. Isso faz com que você possa usar mais estrategicamente seus recursos durante a campanha de desinformação.
Dito isso, o WhatsApp entra no conjunto de aplicativos e plataformas utilizadas. Sozinho não seria a arma tão potente que ele é em conjunto com esses outros. Não só plataformas, mas dados pessoais alimentam esse conjunto de plataformas e aplicativos que formam essa arma.
Por exemplo, se você tem um vídeo no YouTube e esse vídeo é retirado do ar, todo mundo que poderia acessar aquele vídeo perde o acesso. Por mais que consiga atingir muita gente, a pessoa está muito exposta para atores que estão reprimindo ações desse tipo. Agora, se esse vídeo for para o WhatsApp, se alguém baixar esse vídeo e divulgar, cada nova pessoa acessando faz o download desse vídeo e, a partir daí, terá uma cópia no próprio celular. Se 100 mil pessoas viram, se tem 100 mil cópias desse vídeo em 100 mil celulares diferentes, é virtualmente impossível você se livrar dele. Não interessa o intervalo de tempo de que estamos falando, porque ele continua circulando e pode voltar a estar on-line.
Por isso, considero que o WhatsApp sozinho é um problema “x”. Agora, a dobradinha WhatsApp-YouTube juntos vira um problema de dimensão muito maior. Nem temos como mensurar. Isso vale para todas as outras redes.
Um segundo ponto é que o WhatsApp não oferece informação social, agora até oferece. [1] Com essa informação, você consegue mensurar quantas pessoas se engajaram com aquilo ou não.
Exemplo de interações em que não se precisa responder à mensagem | Foto: reprodução
Essas informações sociais são o que alimentam boa parte dos algoritmos que buscam nos manter conectados. Por exemplo, no YouTube, um vídeo que me fala para sair da plataforma deixa de ser mostrado para mim porque querem que eu permaneça na plataforma. Mesmo que seja um vídeo que odeio, se eu ficar lá xingando, ele vai me manter na rede. E o WhatsApp não tem nenhum algoritmo de visibilidade.
Por mais que odeie, não se interesse por determinado vídeo, você vai ver de novo, até sair do grupo. Por isso é comum esses comportamentos de sair dos grupos. É mais uma diferença que mostra que o WhatsApp faz sentido dentro de um ecossistema, porque vários vídeos que não são mostrados para as pessoas em outros lugares serão vistos no aplicativo, goste ou não, porque o funcionamento dele é diferente.
É difícil falar que o WhatsApp é o maior problema, como se ele funcionasse sozinho. O WhatsApp, dentro do ecossistema de plataforma que temos hoje, traz uma potencialidade que não haveria sem ele. Ele dificulta apagar informação, impedir que determinado conteúdo não chegue mais às pessoas. Ele dificulta uma série de mecanismos usados nas campanhas de desinformação. Mas não quer dizer que se tirarmos o aplicativo desse sistema, ele passa a ser saudável, porque as pessoas vão se adaptar, migrar para o Telegram, fazer outras coisas, entrando num processo adaptativo.
Por isso não gosto da ideia de que é o melhor ou pior. Gosto mais de pensar na perspectiva de como suas características interagem com outras plataformas e ajudam a moldar estratégias de desinformação que ultrapassam um aplicativo ou uma plataforma somente.
IHU – Como compreender as questões de fundo que mobilizam as pessoas a gerarem ou fazerem circular desinformação?
João Guilherme Bastos dos Santos – No artigo que produzimos, mostramos que as informações que constam dentro do WhatsApp seguem uma lógica segmentada e direcional. São características que muitos atribuem aos algoritmos, como se as pessoas não agissem por si só de modo a se segmentarem em grupos específicos e a atribuir centralidade a um grupo e não a outro.
Essas lógicas de segmentação são estudadas há tempos, desde a TV a cabo. Você tem obras como Post Broadcast Democracy (Cambridge University Press, 2007), de Markus Prior, e The Myth of Digital Democracy (Princeton University Press, 2008), de Matthew Hindman, por exemplo, e outros estudos que vão mostrar que quanto mais opções de conteúdo as pessoas tiverem, alguns deles vão estar mais próximos do que ela acredita e outros não.
As obras de Prior e de Hindman são apontadas Santos para compreender a ideia de segmentação desde as lógicas da TV a cabo | Fotos: divulgação
Com isso, maior será a tendência de elas se segmentarem em nichos. Logo, quanto mais isolados forem esses canais de comunicação, maior vai ser a lacuna entre os diferentes grupos. Isso se configura como uma maior distância das informações que chegam ao grupo, a compreensão da realidade que cada grupo tem e como entende eventos como a invasão ao Iraque, por exemplo – Castells até analisa essa perspectiva naquele livro Cominication Power (OUP Oxford; 2013).
Então, o assunto é estudado há bastante tempo. Para entender, é preciso mobilizar uma série de conceitos. Há a ideia de viés de confirmação, muito famosa na área de cognição. Há a ideia de segmentação voluntária, que é o processo em que as pessoas, voluntariamente, escolhem não ter acesso a informações que vão contra ao que ela acredita porque gera um desgaste psicológico.
Obra de Manuel Castells que analisa as diferentes formas que se compreende a invasão ao Iraque a partir das informações que se assimila | Foto: divulgação
IHU – Por que as redes de WhatsApp acabam sendo a principal fonte de informação em detrimento de grandes veículos de comunicação em massa?
João Guilherme Bastos dos Santos – Aí, entramos numa questão sobre que tipo de informação estamos falando. No WhatsApp, vai chegar informação de seu dia a dia. Por exemplo, se é para ir ao trabalho ou não, se o trânsito está engarrafado ou não. Ou o que pediram para você comprar e, também, uma informação política qualquer encaminhada. Essa função não pode ser desempenhada por um meio de comunicação, que vai dar uma interpretação de eventos de interesse público – digamos interesse público com várias aspas.
Então, mesmo que não busquem nenhuma informação de interesse público, as pessoas precisam de informações para o dia a dia. E quando as informações chegam a esses grupos, chegam a pessoas que não estão interessadas naquilo. Temos, assim, grupos periféricos na rede e grupos interconectados, grupos que não estão necessariamente viralizando informação de modo recorrente, mas uma vez que a informação entra num processo viral e contamina a rede inteira, vai chegar até esses grupos. Assim como vai chegar no grupo do futebol, em uma série de outros lugares.
IHU – Podemos pensar um exemplo: um grupo de informações de trânsito do bairro compartilha informações políticas a partir de uma intervenção no trânsito causada por determinada manifestação. Não é um grupo que se articula politicamente, mas a informação com esse viés acaba chegando ali. Seria isso?
João Guilherme Bastos dos Santos – Sim, porque as pessoas estão em vários grupos, estão no grupo do trânsito, do colégio e no grupo de política. A partir do momento em que uma delas está num grupo de política, a pessoa pode pegar a informação e jogar em todos os outros grupos de que faz parte. A ideia dos graus de separação vem daí, com poucas transições a informação pode chegar a polos radicalmente diferentes. Pode conectar um jardineiro brasileiro com o presidente dos Estados Unidos porque, cada vez que a informação entra num novo grupo, ela atravessa um grau de separação, e o leque de pessoas que pode acessar varia drasticamente.
Costumo dar este exemplo: se em cada universidade você pode ter pessoas de diferentes igrejas e cada igreja tem pessoas de várias universidades, se for percorrendo essa associação vamos chegar, praticamente, a todas as universidades e todas as igrejas do país. Não quer dizer que seu ponto de saída tenha conexão direta com elas, mas percorrendo isso você pode chegar muito rapidamente a qualquer lugar se souber a quem acessar. O WhatsApp é a mesma coisa: você participa de vários grupos – família, bairro, escola, empresa. Isso forma uma rede extremamente capilarizada que pode ser acessada por grupos de interesse, como igrejas.
Se você estiver num grupo de igreja, verá que há grupos estaduais, nacionais, municipais, grupos de cantores, de voluntários para obras sociais. Você vai conseguir acessar um arco muito amplo. Se tiver uma estratégia para usar estes fatores em seu favor, você estará pronto para difundir informação e fazer viralizar ali dentro.
IHU – Se falarmos de informação político-factual, nesse recorte de interesse público, o WhatsApp consegue capilarizar mais do que os veículos de comunicação de massa?
João Guilherme Bastos dos Santos – É difícil comparar. O que vemos de informação nos veículos não tradicionais, nos canais do YouTube, por exemplo, tem estratégia diferente de comunicação, se compararmos com a Globo. Se tem algum evento de grandes proporções, a Globo terá seus canais pagos, vários outros canais e até outros serão abertos de graça na internet. Então, é mais fácil para esse pessoal distribuir o link, fazer chegar a mais pessoas. Embora estejamos falando de coisas parecidas, empresas que se colocam como jornalísticas, elas vivem em ambientes diferentes e seguem em ambientes diferentes. Por isso é difícil comparar as dinâmicas de circulação.
Outra coisa é que depois que viraliza a informação, ela tem um grau de sensacionalismo que seja percebida como de interesse. Muitas pessoas têm interesse de atenção limitado para desprender a tudo que chega, não tem como acessar todos os links e nem ler todas as informações. Obviamente, se você dá a entender que aquilo é urgente para aquela pessoa, isso vai ser priorizado e acessado. E, por exemplo, quando se fala que um candidato vai queimar as igrejas, a pessoa que frequenta igrejas e acredita naquilo tem um interesse óbvio e urgente. Se falo que vou fazer alguma coisa com seu filho, você dá atenção, mas se eu falo que vou calcular o superávit primário de determinado governo, isso está distante e destoa consideravelmente da realidade da maioria das pessoas.
Primeiro, você tem a questão de qual ambiente, quais lógicas perpassam o funcionamento desse grupo. Alguns são essencialmente on-line em todas as dimensões, e é muito difícil, numa lógica empresarial de cobrança, competir, pois eles ganham por acesso gratuito ou o YouTube os paga. Logicamente, é diferente de eu cobrar para as pessoas verem.
O segundo ponto é que algumas regras de objetividade jornalística estão muitas vezes distantes do sensacionalismo que esses grupos associam com a política para conseguir ter entrada. Vemos muito sensacionalismo na área policial, em algumas outras áreas de programas populares, mas o casamento desse sensacionalismo com política e outros tópicos é visto mais em canais novos e não tradicionais do que em grandes veículos jornalísticos.
IHU – É possível traçar um perfil dos disseminadores e consumidores de desinformação?
João Guilherme Bastos dos Santos – Estamos falando de informações muito segmentadas, então cada informação terá seu público. Informação falsa religiosa terá um público, de economia e ultraliberal terá outro público. O fato de ser falsa não lhe põe um público específico, mas dentro de cada público você vai ter um público específico de uma informação falsa. A resposta é essa.
Se formos ver dentro do público religioso, vamos ter várias pessoas que acham totalmente incompatíveis com o cristianismo a tortura, a destruição feita em Brasília. Mas existem outros grupos mais presos à teologia da prosperidade, que admiram empresários e os empresários bolsonaristas detêm algum capital de autoridade sobre essas pessoas. Isso tudo parece ser compatível com uma retórica violenta bolsonarista de vários modos diferentes. Já a teologia da libertação, grupos focados no novo testamento, vão em uma linha totalmente diferente. Assim como temos essas distinções no âmbito religioso, temos também no âmbito militarista, ultraliberal, de combate à corrupção, cada um desses nichos vai ter um tipo específico de informação falsa.
Alguns vão assimilar dados falsos facilmente. Outros vão exigir um artigo que se passe por científico. Ou seja, cada um vai ter critérios diferentes, e há quem ofereça tudo isso. Se olharmos para o caso da pandemia de covid-19, veremos o Médicos Pela Vida com vários médicos produzindo e distorcendo informações que, originalmente, poderiam até de fato estar em um artigo ou coisa assim, mas não com o objetivo que eles colocam.
Ou então trazem a opinião de um cientista, que de fato é cientista e produz ciência, mas a opinião dele é uma opinião assim como a opinião de um jornalista não é jornalismo. E, mesmo assim, acabam colando essa opinião como se fosse fruto do trabalho científico – e não como a opinião de um cientista.
IHU – Podemos pensar que essa informação circula organicamente a partir dos grupos, ou haveria determinadas figuras que, mesmo que manualmente, exercem uma função de algoritmo, selecionando e enviando conteúdo falso?
João Guilherme Bastos dos Santos – Para atingir todos os grupos, a mensagem tem de ser levada adiante por uma pessoa que está em dois grupos para passar informação de um para outro. Se consegue atingir centenas de grupos, é porque centenas ou várias pessoas que estão em vários grupos tiveram o trabalho de encaminhar. É um processo que depende dessa passagem adiante.
O que demonstramos é que, no processo inicial, tem gente compartilhando em grupos muito importantes e neles começa o processo de viralização. Para atingir os não convertidos, que é que interessa, é preciso extrapolar o momento inicial. É preciso atingir um estágio de viralização que mesmo aqueles que não compartilham tudo o que lhes chega acreditarão e mandarão para o grupo x ou y.
O compartilhamento orgânico cumpre uma função nessa dinâmica geral com uma mobilização, muitas vezes, posterior a uma ação de militantes que estão mobilizados intensamente para propagar aquilo. É esse compartilhamento orgânico que garante que tenha impacto para além do já convertido. Ficar girando essas mensagens somente em quem já acredita não faria sentido. Seria como pregar somente para já convertidos.
IHU – No WhatsApp, o que há de semelhante e de diferente nos grupos de familiares, amigos, vizinhos, colegas de trabalho e os de ativistas políticos?
João Guilherme Bastos dos Santos – São diferentes em níveis consideráveis. Normalmente em grupos de ativismo, você tem instruções, estratégias, aceitações de questões que não vão aparecer no grupo da família. Algo como, “acho que Bolsonaro errou, mas vamos fazer isso viralizar porque, se não, vão perder a narrativa”. Esse tipo de mensagem não se vê em grupo de família. Nesses grupos de famílias, veremos a imagem que os ativistas querem que efetivamente convença a família. Nos grupos de ativistas, muitas vezes as pessoas não se conhecem pessoalmente, por isso até que vários pesquisadores entram nesses grupos. Há uma série de mecanismos que os fazem diametralmente opostos.
Esses grupos de ativistas também são muito grandes. As pessoas ainda estão em vários outros grupos. Os grupos de famílias são pequenos, boa parte da família está em poucos grupos, não é focado prioritariamente em informações políticas. Em dinâmicas internas, digo que os grupos de ativismos são muito mais diferentes do que parecidos com esses outros grupos do WhatsApp, como os de famílias, vizinhos, do trabalho ou escola.
IHU – Embora os grupos de ativistas organizados pensem estratégias, eles continuam dependentes da organicidade de grupos como os de famílias?
João Guilherme Bastos dos Santos – Sim. É como pensarmos em uma propaganda de televisão. Você pode direcionar para o público certo, pode mostrar na hora que as pessoas estão olhando TV, mas as pessoas podem ignorar completamente o que está aparecendo e isso por diversos motivos. O WhatsApp não é diferente. Não é porque você jogou uma informação ali que todo mundo vai acreditar e querer compartilhar. Há uma série de mecanismos psicológicos e de interpretação, de limiares de participação para aquelas pessoas se sentirem compelidas a agir, fatores que variam entre as pessoas.
Parte importante do sucesso de qualquer grupo de ativistas é atingir esse público. É como se pensassem “que mensagem, colocando ali, será encaminhada para as pessoas daquela família, terá impacto na percepção delas, fará com que seja influência sobre a leitura delas das coisas do mundo?” Ou então: “que mensagem influenciará uma liderança que vai chegar na igreja e transformará aquilo em um discurso?”
Os mecanismos determinantes de influência são muito mais complexos do que a aparição da imagem no WhatsApp, embora isso tenha um papel relevante quando bem-sucedido.
IHU – Os gestores do WhatsApp lançaram medidas para tentar combater essa desinformação. Como avalia a eficácia delas?
João Guilherme Bastos dos Santos – Os pesquisadores que olham o WhatsApp, não posso falar por todos, conversam com o WhatsApp, àquelas pessoas responsáveis pelas políticas do aplicativo. Nós passamos para eles o que achamos das políticas empregadas. Cada pesquisador tem uma perspectiva diferente que vai exigir soluções diferentes. Quem está olhando para o conteúdo irá focar em questões que envolvem conteúdo.
Nossa metodologia não depende de violação da privacidade de ninguém, nem de olhar o conteúdo que está sendo posto em circulação. Nossa percepção é de que o WhatsApp não foi feito para viralizar informação. Essa viralização recorrente, com um aumento exponencial de visibilidade de coisas que nunca mais vão poder ser excluídas parece incompatível com a proposta do aplicativo. Sua proposta é ser um mecanismo de conversa interpessoal.
Se a lógica de viralização fosse impedida no aplicativo, ainda continuaria havendo informação falsa circulando, mas sem impacto político num país do tamanho do Brasil. Essa não parece ser a percepção dos gestores do aplicativo. Por mais que se tenham reduzidos os encaminhamentos, e por mais que algumas medidas tenham sido tomadas, a viralização sempre será possível.
Por exemplo, um grupo que tem 256 pessoas. Se cada uma enviar para um novo grupo, teremos 256 ao quadrado. Se isso acontecer de novo, teremos 256 ao quadrado e multiplicaremos por 256. Em três ou quatro etapas de encaminhamentos você chega a milhões de pessoas. Isso mesmo com apenas um encaminhamento.
E quando o WhatsApp anuncia que vai proporcionar grupos que incluem vários subgrupos para facilitar algumas funções que atualmente percebemos no Telegram ou no Slack, ou em outros aplicativos de mensagens, isso aumenta muito o risco de viralização. Estamos muito longe de resolver o problema e essas ações pioram consideravelmente os problemas que mostramos em artigo de 2018. É compreensível que estão tentando fazer isso por uma questão de mercado, para não perder espaço ao Telegram e outros. Mas, do ponto de vista do funcionamento do WhatsApp, isso é muito perigoso.
Veja que o Telegram não funciona com base em um número de telefone celular. Então, pode divulgar para todo mundo o usuário inicial que mandou aquela mensagem sem estar violando a produção de dados pessoais. Como no WhatsApp, o ID é um número de celular, isso é muito limitado.
Pense numa pessoa que manda um nude para um namorado e o namorado encaminha para alguém. Se aquilo viralizar, todo mundo com aquela mensagem vai ter o telefone celular da pessoa que produziu aquele nude.
Isso é muito grave. No Telegram, a pessoa muda o usuário e acabou. Já o WhatsApp traz uma série de problemas que o Telegram não tem. O problema é maior quando o WhatsApp se apropria de algumas dinâmicas, como essa de criar subgrupos. Ele favorece um tipo de viralização que não tem como lidar do mesmo modo que o Telegram tem.
No Telegram, há grupos gigantes. Vários deles defenderam a intervenção militar, promoveram atos inconstitucionais violentos, tudo isso é verdade. Mas esses grupos foram localizados e excluídos. Você não tem como fazer isso no WhatsApp.
IHU – Por que a desinformação deve ser vista como uma espécie de chaga que corrói a democracia?
João Guilherme Bastos dos Santos – O comportamento eleitoral e político em geral depende de informações a que você tem acesso. Não só informações jornalísticas; estamos falando de informações de modo geral. No momento em que você tem um grupo capaz de mobilizar segmentos específicos, em cenários polarizados, como em 50x50, qualquer grupo que envolva 7% da população chega muito perto de mudar o resultado de uma eleição. Esse é o fiel da balança nas democracias atuais. É quando um grupo pode, de modo desleal e arbitrário, influenciar esse segmento que pode mudar o resultado de pleitos democráticos com base em informações completamente infundadas.
Isso falando num âmbito macro. No âmbito micro, temos questões sérias de agressão pessoal, perseguição, todas baseadas em informações falsas. Veja a questão do funcionário do Banco do Brasil, que parece que não estava nem em Brasília nos atos de domingo [dia 08-01-2023], mas que foi erroneamente associado à imagem de uma pessoa simulando que defecava dentro de um edifício público durante o quebra-quebra.
Essa imagem viralizou e ele está recebendo ameaças até hoje. Imagine as consequências disso para o trabalho da pessoa, para a segurança dela e da família. Estamos falando de algo simples, alguém pegou a imagem e colou a foto dele ali e as pessoas acreditaram que era ele que estava fazendo aquilo e acabou. Ele está até hoje correndo atrás disso. Já foi desmentido, já saíram matérias explicando os fatos.
A partir do momento em que as pessoas baixam no celular, não há como desfazer, e a pessoa que foi vítima sofrerá as consequências por um bom tempo. Veja que nesse caso ele tinha álibis, que o ajudaram a comprovar que não estava nem em Brasília. Agora, você imagina se ele estivesse em Brasília. Até ele conseguir provar que não estava nos atos poderia ser afastado do trabalho, agressões poderiam se concretizar.
Isso é algo incompatível com o funcionamento saudável do sistema democrático. Não falamos de rumores, que fazem parte do processo social. Até termos certeza, traçamos hipóteses, conversamos com outras pessoas. Não é disso que estamos falando. Estamos falando da difusão sistemática de informações falsas e da intenção de mudar o comportamento das pessoas para ter um impacto político específico e estratégico. É a mobilização visando alterar o funcionamento do que seria “natural” e um processo eleitoral.
IHU – Os atos terroristas realizados em Brasília no dia 08-01-2023 foram articulados via aplicativos de mensagens e outras redes sociais. Como analisa essa articulação?
João Guilherme Bastos dos Santos – O WhatsApp e os aplicativos entram novamente nesse ecossistema de informação. Tivemos uma série de youtbers incentivando isso, uma série de canais que as pessoas seguem regularmente que dão para elas informações que dizem que aquilo faz sentido e por outros aplicativos e mensagens você tem a confirmação social de que aquilo é factível. E a pessoa, provavelmente, já está em grupos no Whats de pessoas que pensam da mesma forma e, assim, a mobilização de ônibus, por exemplo, campanhas de PIX para financiamento são muito mais fáceis. E não porque isso é inato do WhatsApp, mas porque essas pessoas estão radicalizadas e mobilizadas há tempos para ações como estas.
Na contribuição do WhatsApp, através do aplicativo, é muito difícil encontrar todos os chamados, campanhas de PIX, organização de ônibus dessas pessoas que foram para Brasília e quebraram tudo. É muito difícil, também, ter a medida de quais grandes grupos dentro do aplicativo participaram disso. A não ser que se apreendam os celulares e faça perícia.
É, ainda, muito difícil antecipar uma série de coisas. É óbvio que tem um monitoramento e já havia sido percebida uma série de tentativas, mas, ao mesmo tempo, quando pegamos um monitoramento desses entrando em um dos grupos no WhatsApp, temos uma série de ações voluntaristas. São pessoas que têm dez amigos, tentam fretar um ônibus e são malsucedidas. E essa pessoa vai estar no mesmo patamar da pessoa que mobilizou 15 ônibus em grupos fechados.
Essa falta de acesso à informação, de clareza, associada ao que viralizou lá dentro, fora dos grupos observados, traz uma série de dificuldades para entender como isso vai acontecer na ponta. E tem esse outro lado de que os atos foram filmados; os influenciadores registraram nos próprios canais que estavam lá. Eles mandaram para apoiadores em vídeos abertos. O YouTube também tem vídeos não listados, ou seja, pode ter opacidade dentro do YouTube também. Todo esse material vai ser usado para chegar a essas pessoas. A partir disso, podemos detectar a que grupos ela pertence.
Um exemplo concreto: antes da eleição, quando vários empresários propuseram um golpe de Estado, só tivemos o acesso a essa informação porque um empresário de dentro desse grupo denunciou. As pessoas envolvidas ali têm grande potencial de financiamento, de mobilização, de rede de apoio e tudo isso poderia ser mobilizado para atos como o que vimos em Brasília.
Só nos foi possível agir porque alguém de dentro denunciou. Esse tipo de coisa nunca vai aparecer num grupo que está com o link aberto. Essa é a diferença. Às vezes, estamos olhando para a ponta do processo, para grupos totalmente irrelevantes. Voltamos à questão abordada no artigo: os grupos da periferia da rede são exponencialmente mais numerosos do que os que estão no centro dela, mas também exteriormente são irrelevantes. Não adianta olhar dez mil grupos na periferia da rede, pois eu só vou saber o que viralizou no final do processo de viralização. Nunca vou conseguir antecipar antes que isso aconteça.
IHU – O que os vídeos, as selfies e mensagens compartilhadas por terroristas durante os atos em Brasília revelam sobre política, democracia, tecnologia e informação?
João Guilherme Bastos dos Santos – A questão é complexa, mas ela nos mostra que vários dos atores lá têm os seus próprios públicos. Não estamos falando de uma liderança e todo mundo seguindo-a. Temos vários influenciadores, cada um com seu próprio nicho, seu próprio público, competindo entre si sobre que tem a melhor imagem, quem está mais engajado e quem estava participando mais, porque isso virou, de algum modo, um mercado.
A partir do momento que pagam por acesso, as pessoas são remuneradas de acordo com o sucesso que alcançam em agradar e angariar um público específico. E o bolsonarismo radical é um público muito específico, fiel, extremamente engajado que está sendo disputado por essas pessoas. Não à toa, depois dos atos elas apagaram os vídeos. Não é porque são imbecis, produziram provas contra si e apagaram, mas porque aquilo certifica-os perante o grupo, aumenta o poder, a influência deles em uma série de questões – inclusive para ter apoio em processos que eles já estejam encarando.
Para mim, ficou muito claro isto: não estavam juntos numa transmissão só. Cada um estava mostrando seu lado, cada um com uma narrativa específica, cada um estava querendo performar de uma maneira muito específica.
IHU – Pensando no bolsonarismo e na extrema-direita brasileira, a partir de tudo o que aconteceu e está acontecendo, o que podemos esperar desses movimentos? E como avaliar a forma como o Estado e a própria esquerda têm lidado com tudo isso?
João Guilherme Bastos dos Santos – Quanto às redes sociais on-line, novamente vai ter uma derrubada de perfis, uma série de providências tomadas por empresas. Veja que a Jovem Pan afastou comentaristas que apoiaram o golpismo, e outras redes fizeram a mesma coisa. Existem uma perspectiva e uma percepção extremamente negativa do que aconteceu. As pesquisas no dia avaliaram entre 70 e 90% de reprovação a destruição em Brasília. Então, é óbvio que os atos de domingo foram um fracasso do ponto de vista de redes sociais e mobilização.
Agora, do ponto de vista de mobilização dessa área mais radical, pode ter sido um momento histórico. Ao mesmo tempo, as imagens das pessoas presas, com a camisa do Brasil, pessoas de idade, podem ser mobilizadas de maneira muito estratégica. Esta linha pode ser a mais bem sucedida de narrativa, a ideia de que existem campos de concentração, de que Lula é um ditador, como se as pessoas que estão presas ali tivessem falado apenas que discordam dele ou qualquer coisa do tipo.
Para além disso, é muito difícil prever. Os atores ainda estão se posicionando [a entrevista foi concedida na manhã do dia 11-01-2023]. Bolsonaro deve voltar ao Brasil antes do previsto. Também existe um desafio de foco das manifestações para os acampamentos em frente aos quartéis. Mourão e várias pessoas falaram disso. Então, é difícil antecipar qual vai ser o comportamento geral porque depende muito de novos eventos.
O que sabemos é que é preciso ter cuidado com o que fazemos nas respostas aqui, porque iremos abrindo precedentes que podem ser usados contra vários grupos e contra nós, inclusive.
IHU – Qual deve ser o papel do Estado na regulação desses aplicativos de mensagens e redes sociais no combate à desinformação?
João Guilherme Bastos dos Santos – Essa discussão vem muito contaminada, porque querem transferir todo o histórico de debates do que vem sendo falado de regulação de televisão, concessões públicas, etc., para as plataformas e redes sociais. Mas existe uma diferença fundamental, que é a produção de conteúdo, que nessas plataformas é descentralizada e o controle de conteúdo é centralizado.
Se o YouTube recebe 500 horas de conteúdo novo em uma hora, é óbvio que você não tem nenhuma equipe apta a revisar esse conteúdo todo. O que a plataforma vai fazer se for exigido que ela tenha algum tipo de revisão? Vai automatizar o processo e os mesmos algoritmos que criticamos pode determinar a visibilidade, que é o que vai determinar o que ficará ou não ficará ali e o que será ou não será visto. Já temos exemplos drásticos de revisões malfeitas que derrubaram conteúdo antirracista como se fosse racismo, que derrubaram conteúdo de combate à violência como se fosse violência.
Esses algoritmos são incapazes de compreender sarcasmos, como nos perfis de humoristas. Há vários processos que podem acontecer a partir disso e que são muito perigosos. Se não pensarmos muito bem em como fazer isso, podemos ter problemas sérios. Quer dizer que não existe saída? Não. Existem saídas, sim, mas são complexas. É como no caso do WhatsApp: uma coisa é eu falar para ter mecanismos que impeçam a viralização de qualquer conteúdo dentro do aplicativo. Agora, se você propõe a quebra de criptografia e o acesso ao número, sendo que o WhatsApp funciona globalmente, imagina o impacto disso no WhatsApp da China, no WhatsApp da Síria, no WhatsApp da Índia? É óbvio que o WhatsApp terá resistência.
Em segundo lugar, se ele topar, imagine durante o governo de Jair Bolsonaro, se o governo pudesse pedir a quebra de criptografia de pessoas e acesso a conversas. Ou seja, abrem-se precedentes muito perigosos e que, muitas vezes, não são levados em consideração, porque normalmente as pessoas pensam na televisão. Televisão não tem nada disso, não tem dados pessoais, não tem como colocar seu conteúdo nela. O regime não vai chegar até o telespectador a partir de um dado da televisão. E esse é um ponto delicado que ninguém tem respostas agora. Discutimos isso longamente e temos várias perspectivas.
Eu respeito todos os pensamentos, mas acho que as pessoas não têm a dimensão do quanto danosa pode ser uma lei mal pensada nesse sentido. E, ainda, o quanto ela pode retirar do ar conteúdos que consideramos progressistas com base nos mesmos argumentos que temos com relação aos conteúdos que se quer derrubar.
Um exemplo tiro das audiências públicas contra as fake news: se o algoritmo não consegue perceber a diferença entre os tons de azul e você diz que a empresa vai ser processada se tiver algum azul marinho em um de seus vídeos, a saída dela é tirar tudo que é azul. Azul marinho, claro, escuro, o que quer que seja, porque é o único modo de ter segurança jurídica de que não vai ter nada azul marinho ali.
E aí cai tudo, direita, esquerda, humor, absolutamente tudo. Para a empresa não faz diferença; política é uma fatia muito pequena do acesso total dela. A maioria é entretenimento. Mas o debate público pode sentir muito, pode perder parte dos melhores e mais progressistas canais que temos por conta de uma lei mal pensada.
[1] Informação social são aquelas curtidas ou outras reações que se podem exprimir nas mensagens através dos emojis sem necessariamente responder textualmente à mensagem.