21 Junho 2019
"Uma vez que o reconhecimento facial e outras inteligências artificiais tornem-se pervasivos — e na ausência de leis regulatórias sérias que possam por estribos na tecnologia — nós ficaremos desprotegidos e então estaremos sujeitos a qualquer propósito ao qual o governo ou o mercado queira implementar nossas identidades e localizações", escreve Sally A. Applin, antropóloga, em artigo publicado por Outras Palavras, 05-06-2019. A tradução é de Gabriela Leite.
Em voto unânime, no último dia 6/5, um comitê governamental de São Francisco, nos EUA, deu um passo no sentido de instituir um banimento completo do uso de tecnologias de reconhecimento facial pelo governo. Seria a primeira cidade do país a fazê-lo: enquanto a política, as agências governamentais e o mercado gravitam em torno dessa tecnologia, não há nem leis federais nem regras locais fortes que regulem seu uso. Muitos de nós ficamos cautelosos com sistemas de vigilância projetados para, em público, identificar ou criar perfis automaticamente com nossos dados, mas isso não parece afetá-los muito, e essa é a parte mais preocupante.
“Há uma falha fundamental em nossa justificativa para essas tecnologias” escreveu o líder responsável por Inteligência Artificial da Accenture (empresa de consultoria para tecnologia da informação) em seu twitter, em abril, referindo-se à proposta de São Francisco. “Vivemos em um estado tão perigoso que precisamos disso? Será mesmo que a vigilância punitiva é o caminho para alcançarmos uma sociedade saudável e segura?”
Minha dúvida acerca de qualquer tecnologia que esteja sendo rapidamente adotada — AR, VR, big data, machine learning, o que quer que seja — é sempre “por quê?”. Qual a razão de empresas e governos quererem usar o reconhecimento facial? “‘Nós’ não estamos dando justificativas para essas tecnologias”, respondi. “Os que estão no poder e aqueles que vão lucrar com isso dão. Tanto na compra e venda de equipamento quanto utilizando a tecnologia para reduzir o número de funcionários, substituindo as pessoas. Não se trata da sociedade ou da civilização, mas de dinheiro e poder.”
Mas dinheiro e poder não são as únicas razões por trás da pressão pela adesão ao reconhecimento facial. A cooperação é a maneira com a qual os seres humanos foram capazes de sobreviver desde que existimos, e a necessidade de categorizar algumas pessoas como “os outros” acontece desde que haja humanos. Infelizmente, equívocos e especulações sobre quem são alguns de nós e como devemos nos comportar contribuíram para o medo e a insegurança entre os cidadãos, governos e na aplicação de leis. Hoje, essas ideias temerosas, em combinação com uma população maior, mais móvel e mais diversa, criaram condições que permite que saibamos que os outros existem, mas não conhecemos uns aos outros, nem nos engajamos com frequência com os “outros”, a não ser quando absolutamente necessário. Nossos medos tornam-se outra razão para investimentos em mais “segurança”, apesar de que se reservássemos algum tempo para sermos sociais, abertos e cooperativos em nossas comunidades, haveria menos medo e mais segurança, pois cuidaríamos uns dos outros para o bem estar de cada um.
Ao invés de tomarmos esse rumo, temos preferido monitorar uns aos outros. Começamos a aumentar nossa capacidade de identificar o “outro” através de câmeras de vigilância. A medida que a vigilância por vídeo tornou-se mais acessível, muitos tipos de negócios aumentaram sua capacidade de vigilância ao inserir câmeras em seus locais físicos para desencorajar o roubo e a violência. Guardas monitoram vídeo de câmeras de segurança assim como (ou ao invés de) vigiar pessoas, mas, ao longo do tempo, as câmeras tomaram o lugar de seres humanos. Dessa maneira, a ideia de vigilância por vídeo tornou-se um instrumento de dissuasão psicológica, assim como um esforço de policiamento: sim, estamos sendo filmados, mas não sabíamos se alguém estava assistindo às gravações, nem se eles fariam algo a respeito do que tinham visto.
À medida que as câmeras se tornaram menores (e mais baratas), foram incluídas em mais produtos destinados ao consumidor, oferecendo às pessoas a oportunidade de incorporá-las em suas vidas diárias. As câmeras dos celulares, câmeras nas campainhas e mini câmeras de segurança escondidas em casas do Airbnb (e em muitos outros lugares na sociedade) tornaram-se normais. A vigilância já se espalha entre governos, corporações e cada um de nós que carrega um smartfone ou uma câmera de vídeo.
Comparada à vigilância mais generalizada, as câmeras nas casas têm uma vantagem de defender contra a ameaça do “outro”. Um lar é um ambiente relativamente controlado e quaisquer anomalias podem ser facilmente identificadas e relatadas pelo proprietário ou pelo seu software em tempo real. Os donos das casas estão vigilantes em suas propriedades e podem usar aplicativos que os deixem a par de notícias de crimes locais e, em muitos casos, também contratam segurança terceirizada, para uma “vigilância extra”. Há menos dados para serem processados no ambiente doméstico, é verdade, assim como vizinhos que ficam de olho em práticas não usuais, adicionando mais uma camada de “conhecimento” comunitário para o processo de vigilância.
Mas há ainda uma grande falha no uso de tecnologias de vigilância na sociedade de modo geral: a profusão de câmeras gera uma abundância de gravações e cria um problema de processamento. Há uma quantidade enorme de gravações atrás de cada câmera que você vê — e muitas que você não vê — mas, simplesmente, não há pessoas ou recursos o suficiente para processar e compreender todas essas imagens. Mesmo quando um crime é identificado, seu autor provavelmente conseguiu escapar horas ou dias antes da filmagem ser assistida — se é que alguma vez será vista. Esse déficit de monitoramento faz com que a tecnologia seja facilmente contornada. O déficit de monitoramento encorajou algumas pessoas a inovar nos contornos (um processo chamado de “agência da dissimulação”).
Mesmo assumindo que há uma maneira de vasculhar os dados de vigilância para encontrar material suficiente para identificar alguém ou seu veículo, os recursos que poderiam reforçar o crime registrado muitas vezes não existem. O sistema de vigilância, muitas vezes interrelacionado e complexo, encontrado fora de nossas casas, só funciona quando muitos de nós acreditamos que algo pode ser feito com os dados que são gerados.
Quando uma tecnologia não funciona, podemos introduzir inovações interativas para melhorá-la — e é isso que deve estar acontecendo com as câmeras de vigilância. Por exemplo, municípios rapidamente começam a adotar câmeras introjetadas nas fardas de policiais. Um bom argumento para essas câmeras de corpo é que podem fazer com que cidadãos (assim como policiais) andem na linha; outra alegação é a de que podem ajudar em investigações e, talvez em breve, vigilância em tempo real. No entanto, esse uso não acontece sem falhas, há muito poucos recursos de policiamento nesse sentido, e os custos de armazenamento e gestão desses vídeos têm sido imensos para os departamentos de polícia. Enquanto isso, muitos argumentam que poderia ser feito muito mais para melhorar o policiamento através de práticas e treinamento melhores, além da interação com a comunidade, ao invés de usar mais ou “melhores” tecnologias.
O resultado prático dessas abordagens é que agora temos câmeras de segurança que podem ser inefetivas por múltiplas razões, e ainda assim tornaram-se parte integral do sistema de vigilância na esfera pública e em grande parte da esfera privada de empresas, lojas e assim por diante. Em uma situação que é complexa, e que requer engajamento humano, há frequentes desejos de uma solução rápida e barata, que seja construída sobre o que já havia antes, sem levar em conta como uma função adicional pode mudar os resultados. É assim que o reconhecimento facial começa a ser considerado uma panaceia, como um “adicional” ao aparato de vigilância já estabelecido.
A mídia de massas contribuiu com essa ideia. Na ficção científica, as tecnologias de reconhecimento facial funcionam. Filmes glorificam detetives e policiais que salvam a humanidade usando tal tecnologia para capturar vilões. Isso é irrealista, afinal a ficção científica é roteirizada, e seus enredos e personagens não funcionam em uma sociedade interdependente, com experiências, crenças e questões múltiplas e multiplexadas. O glamour das ficções científicas de alto orçamento e a sensação “cool” que há nas tecnologias em que elas estão presentes são uma armadilha tanto para criadores de tecnologia, que usam a ficção como modelo para a tecnologia que querem construir, quanto para autoridades municipais que lutam contra déficit de orçamento e podem ter uma predileção para essas tecnologias “melhores e mais recentes” como um troféu de status e sucesso. Desenvolvedores tecnológicos podem não se preocupar nem estar familiarizados com a maneira como o que constroem pode afetar a sociedade. Algumas prefeituras, por outro lado, parecem encobrir possíveis resultados e impactos de novas tecnologias, em favor de oferecer espaços de cobaia para empresas de tecnologia, ou então não entender bem o que vai acontecer em suas cidades.
Em essência, o reconhecimento facial oferece promessas cintilantes de facilmente identificar e prender bandidos, como nos filmes, sem ter que fazer o trabalho duro de transformar as relações humanas e conhecer as pessoas em uma comunidade. É muito mais seguro à polícia usar um software do que interagir com criminosos potencialmente perigosos — ou arriscar se relacionar com as pessoas, para então perceber que elas não são nada criminosas, afinal de contas. Dessa maneira, os remendos sócio-tecnológicos construídos sobre as câmeras de segurança, que agora podem incluir reconhecimento facial, começam a ser usado como procuradoras para o conhecimento sobre a sociedade e seu comportamento.
Mas esses dados não são um substituto preciso ao conhecimento comunitário porque podem ser mal interpretados e mal aplicados. A tecnologia não funciona bem para todos de maneira igualitária e justa, especialmente para aqueles não-brancos e não-cisgêneros: como diz um estudo do MIT do ano passado, amplamente citado, três sistemas comuns de análise facial obtiveram uma taxa de erro de 0,8% para homens de pele clara, e de 34,7% para mulheres de pele negra. Para cenários de aplicação de lei, em particular, os riscos de má identificação de pessoas podem ser graves.
O software de reconhecimento facial é uma inovação nas câmeras de vigilância — que foram implantadas para resolver um problema social. Mas apenas as pessoas, e não a tecnologia, podem resolver problemas sociais. Pessoas podem ter que aplicar a tecnologia para resolver esses problemas, entretanto, e aí está o cerne de nosso problema: qual tecnologia é apropriada e qual não é, quais ferramentas usamos, como o Dr. Chowdhury e outros se perguntam, para criar uma “sociedade saudável e segura”?
Respostas a essas questões estão sendo oferecidas sem debate público suficiente. Ferramentas de reconhecimento facial que estão amplamente disponíveis e pouco dispendiosas, e usadas sem regulação ou transparência, são as mais preocupantes. Além disso, não se sabe se departamentos de polícia com poucos funcionários, conscientes de seu orçamento ou tecnologicamente inexperientes, seguirão as regras voluntárias estabelecidas pelos fornecedores do software de reconhecimento.
Uma vez que os softwares de reconhecimento facial de empresas como a Amazon estejam amplamente implantados — e nós somos as cobaias desses experimentos heterogêneos — o próximo avanço tecnológico poderá ser importado: inteligência artificial que utiliza o reconhecimento facial para tirar conclusões sobre nós e o nosso comportamento. É isso que está acontecendo agora na China, onde a IA e o reconhecimento facial está sendo usado para vigiar 11 milhões de Uigures, um grupo minoritário de muçulmanos.
“As tecnologias de reconhecimento facial, que estão integradas nas redes de segurança chinesas, estão se expandindo rapidamente, analisam os Uigures exclusivamente baseados em sua aparência e mantém registros de suas idas e vindas para pesquisa e revisão”, relata o New York Times em matéria recente. “Essa prática faz da China pioneira em aplicar a tecnologia da próxima geração para observar as pessoas, potencialmente inaugurando uma era de racismo automatizado.”
Autoridades e empresas chinesas estão usando a tecnologia para capturar suspeitos de crimes em eventos públicos de larga escala e em outras situações cotidianas: identificando pessoas em aeroportos e hotéis, constrangendo pedestres desatentos em faixas de pedestres e para publicidade direcionada. O reconhecimento facial também está se espalhando através dos EUA, desde o controle de fronteiras até propaganda personalizada nos corredores de supermercados. Um grupo de propriedades de Nova York recentemente tentou criar chaves baseadas em reconhecimento facial obrigatórias para as unidades, em seus edifícios de apartamentos com aluguel estabilizado.
Pode ser que estejamos chegando a um limite no qual algumas de nossas tecnologias cheguem em casa e se empoleirem de maneira que empurrem nossos limites e testem nossas normas sociais. Por exemplo, uma vez que somos “conhecidos” em praticamente todos os lugares que vamos, então, assim como acontece com outros dados que nos acossam e reconhecem, podemos ser constantemente “perfilados”. Quando somos “perfilados”, imagina-se que nosso comportamento pode ser previsto. Uma vez que nossos comportamentos podem ser “previstos” por governos e mercados, então podemos perder nossa capacidade de ação (e senso de realidade) em face dos algoritmos, que geram mais “dados confiáveis” do que nossas explicativas ou autoconhecimento e consciência, ou aqueles das pessoas que conhecemos.
A cooperação é alcançada quando todas as partes cedem um pouco daquilo que desejam para criar um resultado que seja aceitável. Embora algumas vezes as pessoas possam ter seu poder de agência confiscados para ajudar num resultado que desejam, não é uma prática normal fazê-lo com tanta frequência. Isso é escravidão, servitude. Não ter poder de ação, não ter a habilidade de escolher como se é perfilado ou como vende-se algo à pessoa, é algo que mina os fundamentos da cooperação. Os aplicativos de IA que utilizam reconhecimento facial por “conveniência” tornam-se um passo ainda mais perigoso na “inovação” tecnológica em torno de tecnologias de vigilância, à medida que somos forçados a entregar mais e mais de nós mesmos.
Esforços para banir completamente os usos desses softwares enfrentam resistência. Legisladores e empresas como a Microsoft têm pressionado mais por uma regulação que deveria, entre outras coisas, obrigar uma sinalização clara para alertar as pessoas quando ferramentas de reconhecimento facial são usadas em público. No entanto, como não há maneira de não aceitar a vigilância em um espaço público ou privado a não ser não frequentando-o, sinalizar a vigilância não oferece nenhuma escolha razoável às pessoas. E, sem uma maneira de poder optar por não participar de um sistema potencialmente perigoso, os seres humanos começam a ser escravizados. É por isso que leis sérias e executáveis que possam pôr restrições no reconhecimento facial são cruciais, e é o motivo pelo qual essa discussão é tão importante na atual conjuntura de nosso desenvolvimento tecnológico.
Uma vez que o reconhecimento facial e outras inteligências artificiais tornem-se pervasivos — e na ausência de leis regulatórias sérias que possam por estribos na tecnologia — nós ficaremos desprotegidos e então estaremos sujeitos a qualquer propósito ao qual o governo ou o mercado queira implementar nossas identidades e localizações. É aí que a ganância, os lucros e o poder entram em jogo como motivadores.
Se queremos identificar quem são os tais “outros” perigosos, talvez sejam justamente aqueles que querem que nós entreguemos nossos rostos, nossa identidade e nossa heterogeneidade — não apenas para que eles possam identificar nossos perfis, mas com a intenção de fazer classificações automatizadas e controle social. É por isso que o reconhecimento facial é uma tecnologia crítica e deve ser debatida – e por que um número crescente de pessoas quer bani-lo de nossa sociedade.
FECHAR
Comunique à redação erros de português, de informação ou técnicos encontrados nesta página:
A tecnologia em busca dos “inimigos públicos” - Instituto Humanitas Unisinos - IHU