16 Março 2024
Avançam, em todo o mundo, ações judiciais contra as Big Techs. Sociedades reagem à dependência que induzem, em prol do lucro máximo. Base de um plano para transformá-las é redesenhar os algoritmos, para que priorizem a invenção humana
O artigo é de Mariana Mazzucato e Ilan Strauss, publicado por La Diária e reproduzido por Outras Palavras, 13-03-2024. A tradução é de Rôney Rodrigues.
Mariana Mazzucato é economista e professora da cátedra RM Phillips de Ciência e Tecnologia da Universidade de Sussex.
Ilan Strauss é pesquisador dol Instituto para a Inovação e o Propósito Pública da College University, em Londres.
A implantação de algoritmos para maximizar o engajamento do usuário é a forma como as grandes empresas de tecnologia maximizam o valor para os acionistas, e os lucros de curto prazo geralmente têm precedência sobre os objetivos de negócios de longo prazo. Agora que a inteligência artificial está preparada para impulsionar a economia das plataformas, são urgentemente necessárias novas regras e estruturas de governança para salvaguardar o público.
Num novo processo judicial nos Estados Unidos contra a Meta, 41 estados e o Distrito de Colúmbia sustentam que duas das redes sociais da empresa (Instagram e Facebook) não são apenas viciantes, mas também prejudiciais ao bem-estar dos menores. A Meta é acusada de implementar um “esquema para explorar jovens usuários com fins lucrativos”, o que inclui mostrar-lhes conteúdo prejudicial que os mantém grudados em suas telas. De acordo com uma pesquisa recente, os jovens estadunidenses de 17 anos passam 5,8 horas por dia nas redes sociais. Como tudo isso veio à tona? A resposta, em uma palavra, é “engajamento”.
A utilização de algoritmos concebidos para maximizar o “engajamento” dos usuários é a forma das Big Tech maximizarem o valor para os acionistas, cujo resultado são lucros a curto prazo muitas vezes superiores aos objetivos empresariais de longo prazo (isso sem falar da saúde coletiva). Como explica o cientista de dados Greg Linden, algoritmos baseados em “más métricas” promovem “maus incentivos” e abrem caminho aos “maus atores”.
O Facebook começou como um serviço básico para conectar amigos e conhecidos na internet, mas com o tempo seu design evoluiu da satisfação das necessidades e preferências dos usuários para mantê-los dentro da plataforma e longe de outras pessoas. Para atingir esse objetivo, a empresa desconsiderou repetidamente as preferências explícitas dos consumidores em relação ao tipo de conteúdo que desejam visualizar, à privacidade e ao compartilhamento de seus dados.
A primazia dos lucros imediatos passa por induzir os usuários a clicar, mesmo que o resultado global desta estratégia seja dar prioridade a materiais sensacionais e de baixa qualidade, em vez de dar a devida recompensa a um universo mais vasto de criadores de conteúdos, usuários e anunciantes. Chamamos estes lucros de “rendas algorítmicas de atenção”, porque são gerados através da posse passiva (como a dos proprietários de terras) em vez de atividade produtiva destinada a satisfazer as necessidades dos consumidores.
Identificar o comportamento rentista na economia atual requer a compreensão de como as plataformas dominantes exploram o controle algorítmico que têm sobre os usuários. Um algoritmo que degrada a qualidade dos conteúdos que promove está abusando da confiança dos usuários e da posição dominante reforçada pelo efeito de rede. É assim que o Facebook, o Twitter e o Instagram podem seguir seu caminho e continuar enchendo suas páginas com anúncios e viciantes conteúdos “sugeridos”. Como explica o especialista em tecnologia Cory Doctorow de forma um tanto colorida, “a merdificação (enshittificação) das plataformas vem do canhão de um algoritmo” (que por sua vez pode depender de práticas ilegais de coleta e compartilhamento de dados).
O processo contra o Meta tem a ver, em última análise, com suas práticas algorítmicas, cuidadosamente projetadas para maximizar o “engajamento” dos usuários: mantê-los na plataforma por mais tempo e suscitar mais comentários, “curtidas” e republicações. Muitas vezes acontece que uma boa maneira de conseguir isso é exibir conteúdo prejudicial e que beira o ilegal, e transformar o tempo gasto na plataforma em uma atividade compulsiva, por meio de recursos como “rolagem infinita” e o envio incessante de notificações e alertas (técnicas que em muitos casos também são utilizadas com grande eficácia na indústria dos jogos de azar).
À medida que os avanços na inteligência artificial (IA) começam a potencializar as recomendações algorítmicas e a torná-las ainda mais viciantes, são urgentemente necessárias novas estruturas de governança orientadas para o “bem comum” (em vez de uma ideia estreita de “valor para os acionistas”) e alianças simbióticas entre empresas, governos e sociedade civil. Felizmente, está ao alcance das autoridades reformar estes mercados para os colocar ao serviço do bem comum.
Em primeiro lugar, em vez de se basearem exclusivamente na legislação antitruste e de defesa da concorrência, as autoridades devem adotar ferramentas tecnológicas que evitem que as plataformas encarcerem usuários e desenvolvedores. Uma forma de evitar a criação espaços fechados anticoncorrenciais é exigir a portabilidade e a interoperabilidade dos dados entre os serviços digitais, para que os usuários possam facilmente passar de uma plataforma para outra se aquela em que se encontram não corresponder às suas necessidades e preferências.
Em segundo lugar, é essencial uma reforma da governança corporativa, uma vez que o que levou as plataformas à exploração algorítmica dos usuários foi o princípio da maximização do valor para o acionista. Dados os custos sociais bem conhecidos deste modelo de negócio (a busca do maior número possível de cliques conduz muitas vezes à multiplicação de fraudes, desinformação e materiais que incentivam a polarização política), a reforma da governança exige uma reforma dos algoritmos.
Um primeiro passo para a criação de um modelo de base mais saudável é exigir que as plataformas divulguem (no seu relatório anual 10K [que fornece aos investidores uma análise abrangente da empresa] que devem apresentar à Comissão de Valores Mobiliários dos EUA) as métricas que os seus algoritmos visam otimizar, bem como o modo que isso monetiza os usuários. Num mundo onde os executivos da tecnologia vão a Davos todos os anos para falar sobre o “propósito” social das suas empresas, uma divulgação oficial de dados irá pressioná-los a cumprir o que dizem e ajudar os decisores políticos, reguladores e investidores a distinguir entre lucros merecidos e rendas indevidas.
Terceiro, os usuários precisam ter mais influência sobre como os algoritmos priorizam as informações que lhes são mostradas. Caso contrário, o desrespeito pelas preferências dos usuários continuará a causar danos, pois os algoritmos criam ciclos de retroalimentação nos quais induzem os usuários a clicar em determinados conteúdos e depois inferem erroneamente que essas são as suas preferências.
Em quarto lugar, a metodologia padrão da indústria de “teste A/B” deve dar lugar a avaliações de impacto mais abrangentes a longo prazo. O mau uso da ciência de dados leva ao imediatismo algorítmico. Por exemplo, uma teste A/B pode mostrar que o aumento do número de anúncios em exibição terá um efeito positivo a curto prazo sobre os lucros, sem causar uma deterioração óbvia na retenção de usuários; mas isto ignora o impacto na aquisição de novos usuários, para não mencionar quase todos os outros efeitos potencialmente prejudiciais a longo prazo.
A ciência de dados bem utilizada mostra que otimizar os sistemas de recomendação para não buscar recompensas imediatas (por exemplo, visando, em vez disso, a satisfação do cliente e a aquisição e retenção de usuários futuros) é a melhor maneira que as empresas têm para reforçar o crescimento e a lucratividade no longo prazo (supondo que eles possam parar de concentrar toda a sua atenção no próximo relatório de lucros trimestrais). Em 2020, uma equipe da Meta determinou que, em um horizonte de tempo mais longo (um ano), a redução do número de notificações intrusivas melhoraria a utilização do aplicativo e a satisfação dos usuários. Uma grande diferença foi encontrada entre os efeitos de longo prazo e os efeitos de curto prazo.
Em quinto lugar, a IA pública deve ser posta em ação para avaliar a qualidade dos resultados dos algoritmos, particularmente na área da publicidade. Face aos danos consideráveis causados pela flexibilização dos critérios de aceitação de anúncios por parte das plataformas, a autoridade britânica responsável pelo controle publicitário começará a utilizar ferramentas de IA para analisar anúncios e identificar aqueles que fazem “afirmações duvidosas”. Outros países deveriam seguir o exemplo. Igualmente importante, a avaliação da IA deve ser um componente regular da disposição das plataformas para permitir auditoria externa dos resultados dos algoritmos.
Criar um ambiente digital que recompense a criação de valor a partir da inovação e puna a extração de valor rentista (particularmente nos maiores mercados digitais) é o desafio econômico fundamental dos nossos tempos. Para preservar a saúde dos usuários das corporações de tecnologia e da totalidade de seu ecossistema, é necessário evitar que os algoritmos fiquem subordinados ao desejo dos acionistas de lucros imediatos. Se os diretores empresariais realmente acreditam no princípio do valor para as partes interessadas, devem aceitar que é necessária uma mudança radical na forma como o valor é criado, com base nos cinco princípios detalhados acima.
O julgamento iminente contra a Meta não pode desfazer os erros do passado. Mas à medida que nos preparamos para a próxima geração de produtos de IA, temos que instituir mecanismos para uma supervisão adequada dos algoritmos. A utilização de algoritmos baseados em IA influenciará não só o que consumimos, mas também a forma como produzimos e criamos; não apenas o que escolhemos, mas também o que pensamos. Não há espaço para erros aqui.
FECHAR
Comunique à redação erros de português, de informação ou técnicos encontrados nesta página:
A chance de mudar as redes sociais - Instituto Humanitas Unisinos - IHU