22 Outubro 2019
“Como nos dias de Foucault, a vigilância e a punição acabam afetando sobretudo os pobres. Nem mesmo Jeremy Bentham teria imaginado um panóptico mais acabado”, escreve César Rodríguez Garavito, advogado e sociólogo colombiano, defensor dos direitos humanos, em artigo publicado por El Espectador, 18-10-2019. A tradução é do Cepat.
As tecnologias digitais e a inteligência artificial podem cumprir a promessa que seus arquitetos fizeram no início: democratizar o conhecimento e facilitar o acesso das populações marginalizadas a oportunidades reservadas até agora para a minoria rica. Mas, também podem se tornar as ferramentas mais eficazes para discriminar e controlar os mais pobres. Se Michel Foucault tivesse vivido na era digital, diria que se tornaram as tecnologias ideais para "vigiar e punir" os menos poderosos.
Isso fica claro no relatório publicado esta semana pela Relatoria sobre Direitos Humanos e Pobreza Extrema da Organização das Nações Unidas (ONU), que acrescenta evidências sobre a "automatização da pobreza" que está acontecendo em todo o mundo. Em países com um estado de bem-estar, como Inglaterra e Austrália, os governos investiram enormes orçamentos em sistemas de informação que rastreiam a vida dos beneficiários de subsídios de saúde e seguro-desemprego. Rastreamento, é claro, que os mais ricos não precisam sofrer. Os algoritmos automatizam decisões vitais para os mais pobres, como o término desses benefícios pelas entidades estatais.
Nos países que não possuem um estado de bem-estar social robusto, a discriminação geralmente ocorre através de entidades privadas, como bancos que têm acesso a bases de dados sobre os mais pobres. No Brasil, o Congresso aprovou este ano uma lei que permite o envio automático para as entidades financeiras de grandes quantidades de informações sobre assuntos do cotidiano, como o que as pessoas compram, o que pagam com cartão de crédito e quão bons devedores são seus parentes e contatos em redes sociais. Esses são os dados processados pelos algoritmos dos bancos para tomar decisões automatizadas, como a concessão de um crédito.
Os riscos são ainda mais visíveis na Índia, o país dos superlativos. O governo de Narendra Modi registrou 1,2 bilhão de indianos em um sistema de reconhecimento biométrico que está sendo usado para expulsar seletivamente cidadãos pobres dos magros sistemas de assistência social. Daí a esses dados serem utilizados por entidades privadas, como pode estar acontecendo no Brasil, é apenas um passo.
A responsabilidade, é claro, não é das próprias tecnologias, que podem ser usadas para incluir ou excluir. Os resultados mostrados pelos algoritmos são da mesma qualidade e têm o mesmo viés que os dados que os alimentam. Contudo, a responsabilidade é das empresas digitais, que se recusam a ser regulamentadas e se tornaram uma zona franca digital, isenta de direitos humanos, como diz o relatório da Relatoria da ONU. Também é responsabilidade dos governos que acumulam e acessam bancos de dados massivos e que investem em tecnologias como reconhecimento facial para vigiar e controlar a população.
Como nos dias de Foucault, a vigilância e a punição acabam afetando sobretudo os pobres. Nem mesmo Jeremy Bentham teria imaginado um panóptico mais acabado.
FECHAR
Comunique à redação erros de português, de informação ou técnicos encontrados nesta página:
Inteligência artificial e automatização da pobreza - Instituto Humanitas Unisinos - IHU