15 Março 2023
Diretor do InternetLab explica o que está em jogo e que governo federal ainda não deixou suas propostas claras.
A reportagem é de Laura Scofield, publicada por Agência Pública, 09-03-2023.
Após o 8 de janeiro, a urgência de regular a comunicação nas plataformas digitais de modo a diminuir a disseminação de conteúdos nocivos cresceu entre as autoridades públicas, assim como as cobranças da sociedade civil para que o Executivo, o Legislativo e o Judiciário façam algo. O atual presidente, Luiz Inácio Lula da Silva (PT), já disse algumas vezes que esse é um dos focos de sua gestão.
Nas últimas semanas, ao menos 4 estruturas do governo federal assumiram a função de enfrentar a desinformação, mas, mesmo que várias áreas estejam abordando o assunto, não está claro qual será a proposta do governo federal, como explica nesta entrevista Francisco Brito Cruz, diretor executivo do InternetLab.
“Eu não sei quais são as posições do governo. O governo não colocou nada público sobre suas próprias posições”, afirmou ele. Francisco é advogado e doutor pela Faculdade de Direito da Universidade de São Paulo, coordenou o Núcleo de Direito, Internet e Sociedade da USP. Ele também é autor do livro “Novo jogo, velhas regras” (Letramento, 2020).
Ele também explicou que “as redes sociais hoje sustentam a estrutura onde o debate público está acontecendo”, o que significa que mexer nelas é delicado. É necessário ter salvaguardas para que a moderação de conteúdo não seja utilizada para a censura, seja pelo governo ou pelas próprias plataformas.
Uma das soluções aventadas pelo governo federal que gerou descontentamento entre a sociedade civil foi a proposta de regular o tema via medida provisória, que começa a valer imediatamente e depois é avaliada pelo Congresso. A ideia do Planalto seria impor às plataformas uma espécie de “dever de cuidado”, ou seja, a obrigação de impedir a disseminação de conteúdo que viole a Lei do Estado Democrático de Direito — como o estímulo à violência para depor o governo ou a incitação de animosidade entre as Forças Armadas e os Poderes.
Francisco, entretanto, acha necessário primeiro estabelecer “parâmetros de liberdade de expressão no Brasil que deixem essa tarefa [de moderação de conteúdo] mais crível, mais fácil”. Ele teme que a obrigação de que as plataformas retirem conteúdos a partir de suas próprias análises possa incorrer em abusos. “O que seria incitação ao crime? O que seria incitar a animosidade dos poderes contra as Forças Armadas? Se eu dissesse que as Forças Armadas têm que ser extintas, porque eu não concordo com a existência delas, isso seria incitar animosidade? Esse discurso seria um discurso legal? As plataformas interpretariam como? Me parece que falta assentamento sobre o que é lícito ou ilícito”, afirmou.
De acordo com ele, existem medidas anteriores que poderiam ser tomadas para ampliar o debate. Ele defende que as plataformas sejam responsabilizadas de forma sistêmica, o que significa fiscalizar como um todo seus comportamentos para tornar a internet mais democrática e saudável.
A possível MP do governo também incomodou o presidente da Câmara, Arthur Lira (PP-AL), que indicou que pautará o Projeto de Lei 2630, conhecido como PL das Fake News. Orlando Silva (PCdoB), atual relator do projeto na Câmara, acredita que o PL pode ser votado ainda neste semestre. O relator também tem se reunido com integrantes do governo para discutir as propostas a serem incluídas no projeto final.
O PL das Fake News está em tramitação desde maio de 2020, quando foi apresentado pelo senador Alessandro Vieira (CIDADANIA-SE) e relatado por Ângelo Coronel (PSD-BA), então presidente da Comissão Parlamentar Mista de Inquérito (CPMI) das Fake News. Depois de muita polêmica, discussão e emendas, o projeto que cria a Lei Brasileira de Liberdade, Responsabilidade e Transparência na Internet foi aprovado pelo Senado Federal em junho daquele ano e passou a tramitar na Câmara dos Deputados.
Em março de 2022, Orlando Silva apresentou uma nova versão do texto, mas teve suas expectativas de aprovar o projeto antes das eleições presidenciais frustradas quando a Câmara rejeitou o regime de tramitação com urgência.
Como parte da discussão, que tem envolvido todos os poderes da República, o Supremo Tribunal Federal (STF) marcou para o dia 28 de março uma audiência pública para debater duas ações que discutem a moderação de conteúdo e a responsabilidade das plataformas em relação ao conteúdo postado por usuários.
A entrevista com o diretor do InternetLab explica o longo e polêmico processo de tramitação do PL 2630 e traz sugestões do que mais poderia ser feito.
Falando primeiro do PL 2630, que já está aprovado pelo Senado, quais são os principais pontos e preocupações?
O PL que foi aprovado pelo Senado tinha vários pontos de atenção para sociedade civil, como um viés um tanto vigilantista, que aposta na rastreabilidade. A rastreabilidade parte da ideia de que a gente precisa conseguir saber quem começou a encaminhar determinado tipo de mensagem em um aplicativo de mensagem privada. Como você não sabe qual conteúdo vai ser legal ou ilegal antes dele ser produzido e julgado, o projeto basicamente ordenava que aplicativos guardassem dados de todas as mensagens enviadas, o que se torna um enorme baú do tesouro para agentes governamentais ou maliciosos que querem se aproveitar disso pra bisbilhotar a vida das pessoas. Sem dúvida, era um projeto que estava longe de responder aos principais dilemas e problemas sobre plataformas digitais, era um projeto insuficiente e que colocava direitos fundamentais em risco.
Entretanto, mesmo com pontos de atenção, o que ficou claro já no Senado e se expandiu na Câmara é que o PL inaugurou um momento, um processo, que é o processo brasileiro de discussão sobre regulação de plataformas digitais. Foi naquele momento que o trem saiu da estação e a gente teve que discutir o assunto, a pauta foi dominada por ele.
Agora cabe à Câmara retirar esta parte do PL, certo?
Me parece que o deputado Orlando Silva apresentou uma solução e no debate da Câmara isso já foi deixado de lado. Eu não considero mais que a rastreabilidade, do jeito que ela estava antes, está sobre a mesa.
O deputado criou dois tipos de regras: o primeiro é incidir diretamente sobre o produto desses aplicativos para que esse produto não possibilite que uma pessoa utilize criptografia, um mecanismo de sigilo, pra construir uma rede de difusão em massa de mensagens. Os aplicativos de mensagem vão ter que entrar em códigos de conduta pra limitar o número de encaminhamentos e limitar o tamanho dos grupos. Basicamente, você está dizendo: ‘olha, se você quiser falar sem criptografia no público, pode falar; mas se você quiser falar com criptografia, você vai ter que falar no ambiente que não é um ambiente de difusão em massa’.
A segunda coisa é uma proposta de parametrizar investigações no WhatsApp que funcionaria como um grampo. Então se você tem uma suspeita de alguém, se você acha que essa pessoa está trocando mensagens no WhatsApp com uma rede, e que essas mensagens ou essa rede é suspeita, você pode ordenar a guarda dos metadados e interações que a pessoa tem com a rede. É uma lógica de investigação parecida com o que a gente tem hoje no Brasil: se você suspeita de alguém, você quebra o sigilo daquela pessoa, você guarda dados sobre aquela pessoa.
O PL 2630 já teve várias versões, todas repletas de polêmica. Na sua avaliação, a versão aprovada pelo Senado conseguiu corrigir os principais problemas? De que forma o projeto evoluiu?
Um dos pontos que representou um avanço foi o de tentar colocar em foco questões do comportamento de usuários nas plataformas e ser cuidadoso com o conteúdo. Existiu uma maturação na discussão, de tentar aperfeiçoar determinadas obrigações entre as plataformas digitais, como a ideia de que elas entreguem relatórios de transparência e estabeleçam direitos mínimos aos usuários.
Isso é importante, porque quando a gente faz uma regulação sobre conteúdo na internet, independente de qual seja essa regulação, ela está trafegando num oceano arriscado. O Senado foi importante para sensibilizar o parlamento sobre o quão sério é ter esses debates.
No ano passado, o relator do PL na Câmara, Orlando Silva, tentou aprovar o projeto, mas não conseguiu. O que você destaca sobre o texto que o deputado apresentou?
O texto do deputado traz reforço na parte de transparência e direitos dos usuários, além de questões superinteressantes sobre a regulação do uso que o Estado faz das redes sociais, porque a gente sabe que às vezes o Estado é o grande responsável por censurar as pessoas ou mesmo por disseminar desinformação. Ele também traz a regulação de comportamentos, dizendo que quando uma publicação é publicidade, ela tem que ser tratada como publicidade, quando uma conta é automatizada, ela tem que ser identificada como automatizada. São pontos interessantes do projeto.
Algo te preocupa no texto?
Algumas partes do texto são polêmicas e a gente tem que discutir mais, porque talvez tragam riscos. Um exemplo é a discussão sobre a remuneração do jornalismo. É um trecho que preocupa, porque a gente fica pensando se criar a obrigação dessa forma vai favorecer de fato o jornalismo de interesse público, o pluralismo do ecossistema de mídia no Brasil e tudo mais.
Outro ponto é o tratamento das contas dos parlamentares. O deputado criou a ideia de uma imunidade parlamentar aplicada nas redes sociais e eu acho que a gente tem que debater esse problema de novo, porque a gente sabe que os parlamentares muitas vezes utilizam suas contas para disseminar desinformação. Temos que pensar: o que de fato a gente tem que proteger no discurso dos parlamentares?
Além disso, tem uma série de coisas que não estão no texto, e eu até imagino que o governo queira acrescentar, como a discussão sobre conteúdos nocivos, sobre como a gente incentiva que as plataformas ajam mais sobre esse tipo de conteúdo específico. Também é importante a discussão sobre a criação de uma autoridade reguladora independente, dado que a gente não pode pedir que o Judiciário vire o grande especialista em redes sociais. Para resumir, a gente tem coisas interessantes, tem coisas controversas, e tem as coisas que não estão.
A discussão sobre o PL voltou à tona por conta da movimentação do governo federal, o que levou o presidente da Câmara, Arthur Lira, a afirmar que vai pautar o PL na Casa. Considerando agora as sugestões do governo, como responsabilizar as plataformas e cobrar remoção proativa de conteúdos que atentem contra o Estado de Direito, quais são os principais pontos e preocupações?
Eu não sei quais são as posições do governo. O governo não colocou nada público sobre suas próprias posições. O que eu sei é o que tem saído na imprensa, mas o que tem saído na imprensa é muito pouco do ponto de vista de qual é a proposta. O que a gente tem na mesa são algumas declarações de ministros, que às vezes são contraditórias entre si, e o texto do deputado Orlando Silva, que tem problemas e soluções.
Acho que é isso a resposta: eu não sei o que o governo quer. Quando a gente está falando de regulação da internet, todo mundo tem boas cartas de intenções, todo mundo mesmo, e eu realmente acredito nas boas intenções, mas o diabo mora nos detalhes. A gente vai ter que ver no texto o que é bom e o que é ruim.
Acredito que a participação social está no discurso e é compromisso do governo em várias esferas, mas talvez o 8 de janeiro tenha colocado um elemento de urgência e tensionado. Entendo que seja difícil chamar a sociedade civil pra discutir quando o tempo é muito pequeno e quando o governo também tem que achar suas próprias posições, mas eu espero que ele coloque na mesa a sua posição de uma maneira construtiva, sabendo que talvez seja um ponto de partida para construir uma posição mais ampla.
Um dos pontos que tem sido destacado pelas autoridades públicas é a necessidade de responsabilização das plataformas. O que exatamente isso significa?
No Brasil, o Marco Civil da Internet, aprovado mais ou menos dez anos atrás, diz que um provedor de aplicação, ou seja, um site ou plataforma, só pode ser responsabilizado, no sentido de ter que indenizar alguém por um dano que foi gerado por alguém que usa o seu serviço, se ele receber uma ordem judicial pra remover aquele conteúdo e não quiser remover. Isso quer dizer que ele só pode remover com ordem judicial? Não, o serviço é dele, ele não é obrigado a carregar conteúdo de ninguém. Esse sistema foi pensado para responder à seguinte questão: se as plataformas puderem ser responsabilizadas por um dano causado pelos seus usuários, elas estariam incentivadas a monitorar e a julgar cada um desses conteúdos previamente, pra não ter que responder na justiça depois. Elas seriam incentivadas a isso. Com medo de um processo que depois elas tivessem que responder, elas iam estar com a espada na cabeça pra decidir.
Quando as pessoas querem responsabilizar as plataformas, a proposta passa a ser que exista um dever legal da plataforma de fazer uma espécie de julgamento prévio se aquele conteúdo é manifestamente ilegal ou não. Essa proposta existe na Alemanha, por exemplo. Lá tem uma lista de crimes e a plataforma tem que interpretar cada um dos conteúdos e fazer esse julgamento. É isso que está em jogo. Talvez o melhor jeito de explicar é inverter a frase do Homem Aranha, em que ele fala que ‘grandes poderes vem com grandes responsabilidades’. Eu acho que é o contrário nesse caso: ‘grandes responsabilidades vem com grandes poderes’. Se a gente diz que as plataformas vão ser responsáveis por isso, a gente vai estar dando indiretamente o poder a elas de fazer essa interpretação.
Também acho que é necessário entender o que está por trás dessa posição do governo e do ministro Roberto Barroso, que falou sobre isso em um discurso na Unesco. Eu não acho que eles estejam querendo por princípio que as plataformas decidam o que é legal ou ilegal. Eu acho que, inclusive, se você perguntar, eles vão dizer que isso não seria o ideal, mas existe uma pressão para que determinados tipos de conteúdo, que eles lêem como conteúdo criminoso e nocivo, sejam mais removidos, que as plataformas tomem mais ação proativa em relação a determinados tipos de conteúdo. O judiciário às vezes é moroso, tem custo.
Mas não é só mudando o regime, dando esse poder para as plataformas, que você vai incentivá-las a remover o que você quer que elas removam.
Como essa decisão sobre os conteúdos que são removidos pode ser regulada? Como ela pode ser feita sem garantir todo esse poder decisório às plataformas?
Precisamos ter parâmetros de liberdade de expressão no Brasil que deixem essa tarefa mais crível, mais fácil. Parâmetros que todo mundo tenha acordo do que está dentro e do que que está fora, do legal e do ilegal. O grande problema na minha opinião é que esses parâmetros não existem ou existem de forma muito fraca, em especial quando a gente está falando de determinados crimes. Um exemplo, em casos de crimes contra a honra, o que é difamação e o que é crítica? A gente vê vários exemplos de processos, muitas vezes movidos por pessoas poderosas, com base nessa ideia de difamação ou de ofensa à imagem, e essas pessoas ganham. Ganham e censuram jornalistas, censuram ativistas, censuram pessoas que estão fazendo críticas legítimas. Isso me leva a crer que o nosso sistema de dizer o que é lícito ou ilícito do ponto de vista de discurso e de liberdade de expressão é muito ruim, porque ele fica muito refém de quem aciona o judiciário e consegue casuisticamente mover ele a seu favor. O que seria incitação ao crime? O que seria incitar a animosidade dos poderes contra as Forças Armadas? Se eu dissesse que as Forças Armadas têm que ser extintas, porque eu não concordo com a existência delas, isso seria incitar animosidade? Esse discurso seria um discurso legal? As plataformas interpretariam como? Me parece que a falta de assentamento sobre o que é lícito ou ilícito, combinada com essa transferência de poder, é arriscada.
Talvez melhorar esse sistema seja uma tarefa de alguns anos, mas dá para fazer coisas mais imediatas. A Europa tem dado alguns passos interessantes, como o de olhar para a atividade das plataformas de um ponto de vista menos casuístico e mais sistêmico. A ideia é criar um sistema de acompanhamento, fiscalização e regulação que não vai olhar para a responsabilização de cada conteúdo específico, mas sim para o quanto a plataforma está levando a cabo aquele determinado compromisso. É um sistema que incentiva exatamente o que a gente quer que seja incentivado, que é que esses sistemas localizem mais o conteúdo nocivo e que haja investimento compatível, ou seja, que a plataforma invista no Brasil como investe nos Estados Unidos.
O Brasil foi um pioneiro durante a criação do Marco Civil da Internet, mas os tempos mudaram. Existem medidas do Marco Civil que envelheceram e que hoje não fazem muito sentido, medidas que deveriam ser repensadas?
É razoável, depois de dez anos de uma lei, se perguntar isso. Tem coisa que envelheceu, tem coisa que não envelheceu, mas eu não concordo com a visão de que pra você fazer coisas novas em regulação de plataformas você tem que rever o Marco Civil. O Marco Civil é um piso, tem pontos muito basilares.
Desde a aprovação do projeto no Senado, as big techs fizeram uma grande campanha alegando que o projeto é uma “potencial ameaça para a Internet livre, democrática e aberta”. O que está em jogo para elas?
Muita coisa. Estão em jogo os custos que elas vão ter e determinadas partes do modelo de negócio. Existe um mundo de negócio envolvido, e talvez as plataformas menores estejam ainda mais desesperadas, porque podem ter mais dificuldade de se adequar a uma nova regulação. Mas não adianta só elas dizerem que são contra o PL 2630, elas precisam dizer o que elas são a favor. Qual é a proposta? A gente precisa de uma discussão em que todo mundo traga alguma coisa pra mesa.
Muito se falou sobre a atuação do Tribunal Superior Eleitoral durante as últimas eleições presidenciais. Um dos pontos levantados foi que o TSE teve que agir mais para conter a desinformação visto que não existia um aparato legal aprovado pelo Congresso. Pensando nas eleições futuras, o PL pode resolver esses problemas?
O que ficou claro é que os acordos de cooperação que o TSE firmou dependiam das políticas das plataformas e da capacidade delas fazerem a fiscalização em relação às próprias políticas, o que passa pela discussão sobre o projeto de lei. Quais são as políticas? A regulação tem que decidir sobre essas políticas?
Acho que na série eleitoral tem dois pontos de atenção. Primeiro é que a gente vai ter que fazer um balanço sobre a resolução que o TSE editou no último momento da eleição e que garantiu mais poderes de remoção de conteúdo para discutir as eleições de 2024. Além disso, o Senado Federal tem na sua agenda de tramitação deste ano um projeto de Novo Código Eleitoral, e esse novo código trabalha com redes sociais, traz várias outras questões, traz um monte de regras novas pra eleição, e deixa o TSE um pouco mais amarrado pra editar regras novas. Então não é só o PL 2630, a gente vai ter que debater bastante esse Novo Código Eleitoral.
Para finalizar e olhar para frente, o que você espera da versão final do PL, que deve ser apresentada e apreciada nos próximos meses?
Regular as plataformas e garantir maior proteção a direitos fundamentais é uma tarefa da nossa geração, então eu espero que a gente continue esse debate, achando os consensos. Eu espero de verdade que além do governo trazer suas posições, a gente consiga ter um espaço de debate na sociedade civil e na academia. E que nesse ano a gente consiga avançar com alguma inovação legislativa, porque já estamos há três anos nisso.
FECHAR
Comunique à redação erros de português, de informação ou técnicos encontrados nesta página:
PL das Fake News: “regular as plataformas é uma tarefa da nossa geração” - Instituto Humanitas Unisinos - IHU