19 Novembro 2020
Catherine D’Ignazio (Chapel Hill, Carolina do Norte, Estados Unidos) é professora de Ciência e Planejamento Urbano no Instituto Tecnológico de Massachusetts (MIT). Também dirige o Data + Feminism Lab, que utiliza dados e métodos computacionais para trabalhar pela igualdade de gênero. Define-se como professora, artista visual e desenvolvedora de software e tem o apelido de kanarinka nos hackathons feministas que organiza.
D’Ignazio, que viveu durante um tempo em Barcelona, quando era estudante secundarista, escreveu, junto com Lauren Klein, diretora do Digital Humanities Lab, na Universidade de Emory [Geórgia, Estados Unidos], o livro “Data Feminism”, publicado este ano. As autoras consideram fundamental reconhecer os vieses de gênero – e também os de racismo, classismo e discriminação de minorias – dos algoritmos usados massivamente em aplicativos de inteligência artificial e big data. Além disso, destacam a necessidade de entender estes vieses tecnicamente para assim introduzir medidas que os combatam.
A entrevista é de Ana Hernando, publicada por Viento Sur, 17-11-2020. A tradução é do Cepat.
O que é o feminismo de dados e para que serve?
É uma forma de refletir sobre os dados, tanto em termos de seus usos como de suas limitações. Está fundamentado na experiência direta, no compromisso para a ação e o pensamento feminista interseccional. O ponto de partida é algo que geralmente não se reconhece na ciência de dados: que o poder não está distribuído equitativamente no mundo, já que aqueles que o exercem são, desproporcionalmente, homens brancos com acesso à educação, heterossexuais e do norte.
O trabalho do feminismo de dados consiste, em primeiro lugar, em examinar como as práticas padronizadas em ciências de dados servem para reforçar estas desigualdades existentes, que se traduzem em sexismo, como também em racismo, classismo e discriminação de minorias. E, em segundo lugar, em utilizar esta mesma ciência para desafiar e mudar esta distribuição de poder e lutar contra a discriminação em suas diferentes formas.
Quais são os principais vieses discriminatórios que você encontra?
Vemos o feminismo de dados como parte de um crescente corpo de trabalho que responsabiliza os atores corporativos e governamentais por seus produtos com dados racistas, sexistas e classistas. Por exemplo, encontramos sistemas de detecção de rostos que não reconhecem as mulheres negras, algoritmos que degradam as mulheres, algoritmos de busca que fazem circular estereótipos negativos sobre as meninas negras, algoritmos de detecção de abuso infantil que penalizam os pais de baixa renda, visualizações de dados que reforçam o binarismo de gênero. Tudo isto e muito mais.
Claramente, há ganhadores e perdedores no âmbito dos dados.
Sim, claro, como dizia, quem perde são desproporcionalmente mulheres, pessoas negras, indígenas e outros grupos marginalizados, como pessoas trans, não binárias e as pessoas pobres. Algo que igualmente pode ser considerado como uma perda é o que chamamos de missing data, ou seja, todos aqueles dados que podem ser importantes e que não estão sendo coletados. No livro, descrevemos o exemplo dos dados sobre os feminicídios e denunciamos que os governos não coletam dados exaustivos para entender o problema e implementar soluções políticas para acabar com este flagelo.
Outros exemplos de missing data são os dados de mortalidade materna, que só começaram a ser coletados recentemente, e os de assédio sexual. Além disso, não esqueçamos que grande parte de nosso conhecimento médico e de saúde procede de dados de pesquisas que se baseiam quase unicamente no corpo masculino.
Em seu livro, utiliza o termo ‘Big Dick Data’ [‘dick’ é ‘pênis’ na gíria popular e a expressão poderia ser traduzida como ‘dados de quem o tem maior’]. Pode nos explicar seu significado?
É uma crítica ao machismo oculto na maioria das narrativas em torno do big data. As descrições de projetos neste âmbito se caracterizam por fantasias masculinas e totalizadoras de dominação mundial que se realizam mediante a captura e a análise de dados. Assim, os projetos de Big Dick Data ignoram o contexto dos dados, fetichizam o tamanho da base de dados e inflam suas capacidades técnicas e científicas, normalmente com fins lucrativos, poder ou ambos.
Os algoritmos de ‘machine learning’ se alimentam de dados históricos que perpetuam preconceitos, não só em questões de gênero. Por exemplo, muitos estudos de criminalidade nos Estados Unidos apontam que pessoas afro-americanas têm mais probabilidades de cometer crimes.
Conforme dizia, no feminismo de dados deixamos espaço para uma posição de rejeição aos dados e a seu uso em certas situações. Em relação aos dados de criminalidade nos Estados Unidos, por exemplo, considero que teríamos que descartar completamente o seu uso porque estão corrompidos pelo racismo. Após séculos de encarceramento desproporcional de afrodescendentes e indígenas, não podemos usar esses registros para prever quem deveria ser colocado em liberdade sob fiança e imaginar, de alguma forma, que os algoritmos serão neutros. Repito: estes dados foram corrompidos por séculos de supremacia branca e devem ser rejeitados. Esta é a minha opinião.
Como mudar essa narrativa?
A mudança narrativa que necessitamos tem a ver com deixar espaço para esta posição de rejeição no diálogo público e nas políticas. Existem algumas tecnologias que não deveriam ser construídas. Existem alguns dados que não devem ser usados.
Seria possível conseguir a neutralidade dos dados?
Não, os dados jamais serão neutros porque nunca são dados “crus”. São produzidos por seres humanos que vêm de determinados lugares, têm suas próprias identidades, suas histórias particulares e que trabalham em instituições concretas. Mas isso não significa que os dados não possam ser úteis. Só que precisamos utilizá-los com os olhos abertos. E nos fazer as perguntas adequadas: quem se beneficia? Quem se prejudica? Quem faz o trabalho? Quem recebe o crédito?
No momento em que estamos, que avaliação faz da gestão de dados na pandemia?
Aqui, nos Estados Unidos, está sendo terrível. Apresento um exemplo. No início da pandemia, [o presidente Donald] Trump expressou seu desejo de não permitir que um cruzeiro com passageiros afetados pela Covid-19 atracasse. Suas palavras foram: “Gosto que os números fiquem onde estão. Não preciso que se dupliquem por um barco que não é nossa responsabilidade”.
Outras agências governamentais também estão envolvidas nesta subestimação deliberada. Durante onze semanas, de março a maio, os CDC [Centros para o Controle e a Prevenção de Doenças] não publicaram dados sobre quantas pessoas estavam sendo testadas para detectar o vírus. Em certo momento, publicou-se silenciosamente uma nova página web dos CDC que realizavam um acompanhamento dos testes nacionais.
No entanto, segundo uma verificação independente da revista The Atlantic, os números não coincidiam com os reportados pelos próprios estados. Agora, a responsabilidade por monitorar os dados da Covid-19 foi transferida ao departamento de Saúde e Serviços Humanos [HHS] por razões políticas.
Soa tudo muito desastroso.
Sim. E, além disso, os detalhes demográficos sobre as mortes por coronavírus também não são reportados. Sabemos que os homens morrem em proporções mais altas que as mulheres. Também que as comunidades negras, indígenas e latinas são as mais afetadas. Mas os estados não estão rastreando de maneira confiável questões como a de gênero e raça, nos casos de Covid-19. E, quando assim agem, categorizam as populações nativas como outros, o que torna impossível desagregar os efeitos racializados da doença em pessoas indígenas. É um grande desastre.
FECHAR
Comunique à redação erros de português, de informação ou técnicos encontrados nesta página:
“As práticas clássicas em ciência de dados fomentam o sexismo. O feminismo de dados o combate”. Entrevista com Catherine D’Ignazio - Instituto Humanitas Unisinos - IHU