15 Julho 2014
"Quando a história deste período for descrita, uma coisa que vai surpreender os historiadores é a facilidade complacente com que bilhões de pessoas aparentemente sãs permitiram que fossem monitoradas e manipuladas por órgãos de segurança do governo e corporações gigantescas. Eu costumava pensar que a maioria dos usuários do Facebook deve ter algum alguma ideia da extensão em que é conduzida por algoritmos, mas o escândalo sobre esse experimento pode sugerir algo diferente", afirma John Naughton, professor da Open University (Reino Unido) e autor do livro "From Gutenberg to Zuckerberg: What You Really Need to Know About the Internet", em artigo publicado pelo jornal The Observer e reproduzido por CartaCapital, 11-07-2014.
Eis o artigo.
Há duas lições interessantes a se tirar da polêmica sobre o estudo do "contágio emocional" do Facebook. A primeira é o que ela nos diz sobre os usuários do programa. A segunda é o que ela nos diz sobre corporações como o Facebook.
Caso você tenha perdido, aqui vai o resumo da história. A primeira coisa que os usuários do Facebook veem quando se conectam é seu "feed de notícias", uma lista de atualizações, mensagens e fotografias publicadas por seus amigos. A lista que é exibida para cada usuário não é abrangente (não inclui todas as informações possivelmente relevantes de todos os amigos dessa pessoa).
Mas tampouco é aleatória: os algoritmos exclusivos do Facebook escolhem quais itens devem ser exibidos, em um processo às vezes chamado de "curadoria". Ninguém conhece os critérios usados pelos algoritmos – é um segredo industrial, assim como os adotados pelo algoritmo de classificação de páginas do Google. Tudo o que sabemos é que um algoritmo decide o que os usuários do Facebook verão em sua lista de "notícias".
Até aí é óbvio. O que provocou controvérsia foi a descoberta, mediante a publicação de um trabalho de pesquisa no prestigioso Proceedings of the National Academy of Sciences, de que durante uma semana em janeiro de 2012 pesquisadores do Facebook deliberadamente influenciaram o que 689.003 usuários do Facebook viam quando se conectavam.
Algumas pessoas viram conteúdo com predominância de palavras positivas e alegres, enquanto outras foram expostas a conteúdo com sentimentos mais negativos ou tristes. Ao findar a semana experimental, o estudo mostrou que as cobaias inadvertidas tinham maior probabilidade de publicar atualizações de "status" e mensagens que tinham (respectivamente) um tom positivo ou negativo.
Do ponto de vista estatístico, o efeito sobre os usuários foi relativamente pequeno, mas as implicações foram evidentes: o Facebook tinha mostrado que podia manipular as emoções das pessoas! E nessa altura o lixo atingiu o ventilador. Choque! Horror! Palavras como "assustador" e "aterrorizante" foram as mais usadas. Houve discussões sobre se a experiência era antiética e/ou ilegal, no sentido de violar os "termos e condições" que os pobres usuários do Facebook têm de aceitar.
As respostas são, respectivamente, sim e não, porque as corporações não fazem ética e os termos e condições do Facebook exigem que os usuários aceitem que seus dados possam ser usados para "análise de dados, testes, pesquisas".
Os relações-públicas do Facebook parecem ter sido apanhados desprevenidos, levando a diretora de operações da companhia, Sheryl Sandberg, a reclamar que "o problema do estudo é que ele foi 'mal divulgado'". Ela se referia sem dúvida à afirmação da empresa de que o experimento tinha sido conduzido "para melhorar nossos serviços e tornar o conteúdo que as pessoas veem no Facebook tão relevante e envolvente quanto possível. Uma grande parte disto é compreender como as pessoas reagem a diferentes tipos de conteúdo, sejam de tom positivo ou negativo, notícias de amigos ou informações das páginas que elas seguem".
Traduzindo, isso significa: "Pretendemos garantir que nada que as pessoas vejam no Facebook reduza a probabilidade de que elas continuem conectadas. A experiência confirma nossa conjectura de que conteúdo negativo é má notícia (e é por isso que só temos um botão 'Curtir'), e assim vamos configurar nossos algoritmos para garantir que a conversa alegre continue dominando os 'feeds de notícias' dos usuários".
Quando a história deste período for descrita, uma coisa que vai surpreender os historiadores é a facilidade complacente com que bilhões de pessoas aparentemente sãs permitiram que fossem monitoradas e manipuladas por órgãos de segurança do governo e corporações gigantescas. Eu costumava pensar que a maioria dos usuários do Facebook deve ter algum alguma ideia da extensão em que é conduzida por algoritmos, mas o escândalo sobre esse experimento pode sugerir algo diferente.
Mas suspeito de que quando a comoção tiver diminuído a maioria dos usuários continuará enviando para manipulação da companhia seu fluxo de informações e emoções. Aqueles que os deuses desejam destruir, primeiro os tornam ingênuos.
As discussões sobre se o experimento foi antiético revelam a extensão em que os grandes dados estão mudando nossa paisagem regulatória. Muitas atividades que as análises de dados em grande escala hoje possibilitam são sem dúvida "legais" simplesmente porque nossas leis estão muito abaixo da curva.
Nossos regimes de proteção de dados protegem tipos específicos de informação pessoal, mas a análise de dados permite que corporações e governos construam "mosaicos " de informação muito reveladores sobre os indivíduos, agregando o grande número de vestígios digitais que todos deixamos no ciberespaço. E nenhum desses vestígios tem proteção jurídica no momento.
Além disso, a ideia de que as corporações poderiam se comportar de forma ética é tão absurda quanto a tese de que os gatos deveriam respeitar os direitos dos pequenos mamíferos. Gatos fazem o que os gatos fazem: matam outras criaturas. Corporações fazem o que as corporações fazem: maximizam as rendas e o valor dos acionistas e se mantêm dentro da lei. O Facebook pode estar na extremidade da sociopatia corporativa, mas na verdade é apenas a exceção que comprova a regra.
FECHAR
Comunique à redação erros de português, de informação ou técnicos encontrados nesta página:
Não devemos esperar que o Facebook se comporte eticamente - Instituto Humanitas Unisinos - IHU