O debate público sobre a aceleração do uso de novas tecnologias precisa avançar para combater os usos inadequados de dispositivos de controle e mostrar sua infalibilidade, diz o pesquisador
Enquanto projeções e discursos esperançosos enunciam o surgimento de um “novo" mundo pós-pandemia, especialmente em relação às transformações que as tecnologias vão gerar no cotidiano das pessoas e nos modos de vida, o fato é que muitas das mudanças que aconteceriam ao longo da próxima década “foram forçadas a acontecer imediatamente”. Esta antecipação, contudo, “evita a maturidade da sociedade para refletir sobre os riscos destas tecnologias” e os efeitos da regulamentação de várias atividades, como a telemedicina, o teletrabalho, a educação a distância e a digitalização de vários serviços governamentais, pontua Marcelo Chiavassa na entrevista a seguir, concedida por e-mail à IHU On-Line.
Segundo ele, embora as alternativas encontradas para enfrentarmos algumas das consequências geradas pela pandemia sejam “cruciais” para o desenvolvimento social e tecnológico do futuro, o entusiasmo com o “novo” precisa ser ponderado. “O discurso do ‘novo’ em regra é utilizado para propagar algo aparentemente bom. ‘Novas tecnologias’, ‘novo normal’, ‘novo mundo’, ‘nova economia’, ‘ano novo’. Expressões cunhadas na ideia de renovação das esperanças, de início de um novo ciclo, de possibilidade das pessoas se reinventarem e até mesmo de abandonarem o passado. A história, todavia, não permite esse pensamento. O ‘novo’ não necessariamente é algo bom. Abandonar o passado, então, é o primeiro passo para tropeçar no futuro. Enquanto isso, muita gente tem a ganhar com o ‘novo’ e não necessariamente esse será um ganho social”. E adverte: “O ‘novo preocupa. O alerta já está no título da obra de Aldous Huxley, Admirável Mundo Novo”.
A seguir, Chiavassa reflete sobre o uso de dispositivos tecnológicos de vigilância nos países democráticos e autoritários em um período de vulnerabilidade social e jurídica e compara os mecanismos de controle adotados no Oriente e no Ocidente, particularmente no Brasil. “Na China, o aplicativo – imposto pelo governo – gera um QR Code para cada usuário, baseado em perguntas e respostas. QR Code vermelho implica que a pessoa não pode sair de casa por 14 dias. QR Code amarelo impõe o isolamento por 7 dias. Por fim, o QR Code verde permite que a pessoa possa livremente caminhar pelas vias. Entretanto, este QR Code é exigido pelas autoridades públicas (polícia, inclusive) e por estabelecimentos em que essa pessoa deseja ingressar. Muita tem sido a reclamação de pessoas assinaladas com o código vermelho, mas que não foram testadas para covid-19 e que apresentam sintomas comuns com a gripe, por exemplo. O modelo brasileiro parece ser bem mais protetivo em relação à intimidade e privacidade”.
Apesar de ser um entusiasta das novas tecnologias, o pesquisador questiona os efeitos danosos que elas poderão gerar se mecanismos extraordinários de controle social se tornarem a regra. “Será tarde demais quando percebermos que essa tecnologia envelopada com a ideia de liberdade, autonomia e segurança nos transformou em commodities das nossas próprias vidas. Quando nossa liberdade se restringir a uma mesma plataforma, a um mesmo software, a um mesmo desenvolvedor. Não existe liberdade quando nossas vidas estão planilhadas, indexadas, calculadas e traçadas”, conclui.
Marcelo Chiavassa de Mello Paula Lima (Foto: Arquivo pessoal)
Marcelo Chiavassa de Mello Paula Lima é doutor em Direito Civil pela Universidade de São Paulo – USP, mestre em Direito Civil pela Pontifícia Universidade Católica de São Paulo – PUCSP, especialista em Direito Contratual pela PUCSP e especialista em Direito Civil italiano pela Universidade de Camerino, Itália. É professor de Direito Civil, Direito Digital e Direito da Inovação na Universidade Presbiteriana Mackenzie e de Direito Digital em programas de extensão na PUCSP.
IHU On-Line - Que balanço faz das medidas de rastreamento e monitoramento humano, via dispositivos tecnológicos, adotadas no Brasil para enfrentar a pandemia de covid-19?
Marcelo Chiavassa de Mello Paula Lima - A pandemia impôs uma agenda de distanciamento social em boa parte do mundo. Assim, medidas como quarentena (recomendação para ficar em casa) e “lockdown” (quarentena obrigatória), com o objetivo de achatar a curva (de Gauss) do número de contaminados a fim de tentar impedir o colapso do sistema de saúde, passaram a fazer parte do vocabulário social com bastante naturalidade.
Ainda na tentativa de diminuir o ritmo do avanço da pandemia e dos reflexos na economia, os Estados passaram a perceber uma oportunidade/necessidade de monitorar a localização de praticamente cada pessoa no globo terrestre, sob o argumento de: (i) prever se a quarentena/lockdown foi obedecida; (ii) saber por onde e com quem os infectados tiveram contato nos últimos 14 dias; e (iii) monitorar as áreas (públicas e privadas) mais críticas (que concentram maior quantidade de pessoas, como, por exemplo, praias, parques, dentre outros).
Ainda nessa linha, esses argumentos também podem ser utilizados para casos outros de monitoramento que não a covid-19. Assim, pode-se dividir em tutela da saúde pública, tutela dos pacientes e tutela dos cidadãos. A saúde pública seria justificada pela necessidade que o Estado tem de se preparar adequadamente para surtos e necessidades da população na área da saúde. O contínuo e constante monitoramento poderia resolver muitos problemas de contingenciamento hospitalar. Isso impactaria a tutela do paciente, que poderia a partir disso decidir qual o melhor hospital/clínica para ir (considerando disponibilidade de leitos, respiradores etc.). Por fim, isso impactaria a melhoria dos serviços de saúde para toda a população, de acordo com as necessidades daquela região praticamente em tempo real (pensemos, por exemplo, que os dados de covid-19 publicados diariamente pelo Ministério da Saúde refletem o passado – às vezes até 14 dias atrás, dificultando assim a adoção de estratégias de prevenção).
Para a finalidade da pandemia, foram desenvolvidas algumas estratégias de monitoramento/rastreamento baseadas na geolocalização fornecida pelos celulares das pessoas. É possível dividir essas estratégias em dois grupos: aqueles que ocorrem independentemente do consentimento da pessoa e aqueles que necessitam do consentimento. No primeiro grupo, estão estratégias que envolvem a coleta de dados baseada na triangulação das antenas de telefonia, monitoramento por drones, os dados de GPS e de Wi-Fi (ainda que nestes dois últimos casos bastaria o usuário desligar as ferramentas). O segundo grupo é formado basicamente por países que desenvolveram aplicativos para o monitoramento, casos da Austrália, Singapura, dentre outros, baseados no consentimento do usuário (que pode optar por não instalar o aplicativo). É nesta linha, aliás, a parceria entre Apple e Google para monitorarem pessoas que já contraíram a doença.
Ambos os mecanismos permitem a utilização destes dados para finalidades muito mais amplas do que o simples monitoramento passivo da população. Assim, a Coreia do Sul disponibiliza uma base de dados aberta com os dados pessoais de cada indivíduo que já contraiu a doença, além do histórico de localização dele nos últimos 14 dias. Singapura, por outro lado, identifica, por meio de aplicativo, as pessoas que estiveram em contato próximo com o indivíduo que testou positivo.
O modelo brasileiro é baseado na triangulação de antenas e, em boa parte do país, pela tecnologia da empresa In Loco, considerada uma das mais avançadas e precisas do mundo (a mais precisa, segundo relatório da Microsoft). A triangulação das antenas permite às operadoras de telefonia identificarem a movimentação dos titulares das referidas linhas. Segundo elas, os dados são compartilhados de forma anônima (apenas o mapa de calor, sem a identificação do indivíduo). Ainda assim, sem transparência e sem ter acesso a esses relatórios, fica difícil confirmar a veracidade destes fatos.
A In Loco se baseia em sistemas instalados em aplicativos parceiros. Em outras palavras, ela tem uma rede de parceiros cujos aplicativos coletam os dados de geolocalização dos usuários (com a concordância dos usuários). A partir desses dados, a empresa consegue identificar os estabelecimentos visitados pelo usuário e criar um mapa de localização. Tudo é feito de forma anônima (sem a identificação do usuário). Apesar da possibilidade de fazer esse monitoramento em tempo real, a In Loco diz que não partilha esses dados em tempo real, exatamente para evitar eventual sanção para o usuário.
Portanto, no Brasil, a geolocalização tem sido feita pela triangulação das antenas de telefonia (independentemente do consentimento do usuário) ou pela tecnologia da In Loco (mediante o consentimento do usuário). Aparentemente sempre de forma anônima. Se a pessoa não quiser ser rastreada, pode optar por deixar o celular em casa.
IHU On-Line - O modelo de controle e vigilância digital adotado na China e em outros países asiáticos deveria ser replicado em países como o Brasil? Sim, não e por quê?
Marcelo Chiavassa de Mello Paula Lima - Não existe um modelo asiático, mas ao menos três que podem ser simploriamente identificados por meio dos países de origem, China, Coreia do Sul e Singapura. São todos eles muito invasivos, porém altamente eficientes, como demonstrado pelos números desses países no combate à pandemia.
A questão aqui não é, portanto, apenas jurídica. Muito pelo contrário. Países com regras de privacidade mais sólidas têm enfrentado maior dificuldade em relação ao controle da pandemia (especialmente Europa) do que os países asiáticos, o que pode ou não ser uma coincidência.
Tenho em vista, todavia, que esse é, sim, um fator muito importante. Quanto maior o controle imposto à sociedade, mais fácil é monitorar e controlar a disseminação da doença.
O problema, porém, é achar o equilíbrio, de modo a não lesar a privacidade da população de forma demasiada e ao mesmo tempo controlar a pandemia. Os modelos asiáticos, todavia, pregam pela eficiência, custe o que custar em termos de privacidade da população. Diante de uma situação tão anormal, tal posicionamento naturalmente possui defensores com teses – jurídicas, inclusive – muito sólidas.
Particularmente, entendo que a maior eficiência vem acompanhada de riscos um tanto quanto indesejáveis para a população. O modelo sul-coreano, por exemplo, identifica inclusive locais considerados sensíveis, como boates, hospitais, estabelecimentos voltados para determinadas minorias, dentre outros. O compartilhamento destes dados com o público em geral – e de maneira pública – expõe, mais do que a privacidade, a intimidade da pessoa.
Na China, o aplicativo – imposto pelo governo – gera um QR Code para cada usuário, baseado em perguntas e respostas. QR Code vermelho implica que a pessoa não pode sair de casa por 14 dias. QR Code amarelo impõe o isolamento por 7 dias. Por fim, o QR Code verde permite que a pessoa possa livremente caminhar pelas vias. Entretanto, este QR Code é exigido pelas autoridades públicas (polícia, inclusive) e por estabelecimentos em que essa pessoa deseja ingressar. Muita tem sido a reclamação de pessoas assinaladas com o código vermelho, mas que não foram testadas para covid-19 e que apresentam sintomas comuns com a gripe, por exemplo.
O modelo brasileiro parece ser bem mais protetivo em relação à intimidade e privacidade, e igualmente parece ser suficiente para as necessidades dos governos e autoridades públicas locais. Por aqui, ninguém parece muito preocupado em monitorar o histórico de localização da pessoa e/ou o histórico de pessoas que estiveram em contato com alguém que contraiu a doença. Tecnologia para isso, existe. Se a inexistência dessa preocupação no país – ao contrário da Ásia – é boa ou ruim, apenas especialistas em saúde pública podem responder.
O fato é que, diante das necessidades e das agendas propostas pelas autoridades do país, não há necessidade de adoção do modelo asiático ou afim.
IHU On-Line - Alguns especialistas avaliam que medidas de rastreamento e monitoramento ferem a liberdade dos cidadãos e podem ser uma ameaça à democracia, enquanto outros julgam que são necessárias neste momento, inclusive argumentando para a solidariedade com os demais. Como o senhor tem pensado sobre essa questão? Esta é uma necessidade ou um risco no momento?
Marcelo Chiavassa de Mello Paula Lima - É um tema bastante complexo. Eu já mudei de opinião algumas vezes desde o início da pandemia. O cenário atual é algo extraordinário, que acontece provavelmente uma vez a cada 100, 200 anos. Essa excepcionalidade permite que se defenda a restrição de direitos e garantias individuais em prol do bem comum (tal qual em épocas de guerra, de Estado de Defesa e de Estado de Sítio).
Em um contexto utópico e ideal, isso sequer seria discutido. O bem comum prevalece sobre as individualidades. Infelizmente, utopia existe apenas na literatura. O mundo real é formado pela confluência de interesses diversos (político e econômico) e um eterno cabo de guerra entre políticas sociais e políticas liberais, democráticas e não democráticas. Até mesmo porque, em último caso, as instituições são personificadas em seres humanos, que possuem falhas, vícios e vieses. Além do fato de que nem sempre a agenda pessoal dos representantes do povo coincide com a agenda pública e social que seria melhor para a sociedade como um todo.
Portanto, se não existe um cenário de utopia, com as instituições necessariamente agindo no interesse sincero da população, é necessário criar mecanismos de controle (os chamados direitos e garantias fundamentais, direitos humanos e assim por diante). O Direito serve exatamente para isso. Se o mundo funcionasse de maneira perfeita, o direito seria inútil. Não se pode, também, falar em “direito” em países notoriamente não democráticos.
Assim, a resposta para esse questionamento pressupõe o reconhecimento de que utopia é ficção – Estados nem sempre agirão no melhor interesse de seus cidadãos – e é válida apenas para países democráticos.
Nesse cenário, eu realmente acredito que os direitos e liberdades individuais precisem ser mitigados em prol do bem comum. Isso não significa, contudo, carta branca para que Estados e instituições façam aquilo que querem.
O pressuposto é a definição de uma política pública de combate à pandemia, com a indicação de recursos, ferramentas e instrumentos necessários. Além disso, precisa definir o objetivo, a forma como se alcançará este objetivo e os interesses em jogo. Apenas com um plano de combate é que se pode efetivamente analisar se – e de qual forma – um direito/garantia individual pode ser restringido. Ainda, isso precisa ser embasado cientificamente e contar com o necessário debate público.
O Brasil, infelizmente, não tem, na atual conjuntura, unidade política e governamental de combate à pandemia. Assim, União, estados e municípios batem cabeça e traçam muitas vezes planos diametralmente opostos. Nesse contexto, definir a restrição de direitos e garantias individuais fica muito mais complexo. E isso acaba gerando oportunidade para que esta limitação ocorra sem o debate e enfrentamento necessário.
É óbvio que o risco de ferir a democracia e violar direitos e garantias fundamentais existe. Em países com instabilidade política e social esse risco aumenta ainda mais. Insisto, entretanto, que o cenário demanda a restrição de alguns desses direitos, como o fechamento de parques e praças públicos e até mesmo o direito de ir e vir com a decretação de lockdown. Todavia, isso precisa vir acompanhado de uma estratégia de combate que estabeleça critérios, tempo, mecanismos de combate, dentre outras coisas, a fim de trazer transparência e controle pela sociedade.
IHU On-Line - Um dos receios apontados por especialistas de várias áreas é que dispositivos de controle adotados para enfrentar a pandemia de covid-19 sejam instituídos definitivamente para controlar os cidadãos ou que outros dispositivos mais sofisticados sejam criados em nome da segurança e da saúde, como passaportes digitais baseados em provas imunológicas sobre a saúde do cidadão, câmaras térmicas que informam sobre o estado de saúde de funcionários de empresas, ou aplicativos que geram códigos de acordo com a saúde do cidadão, como o que o senhor mencionou anteriormente. Quais são os riscos futuros nesse sentido?
Marcelo Chiavassa de Mello Paula Lima - Muita gente tem falado que a pandemia acelerou o mundo em ao menos uma década. Isso significa dizer que muitas coisas que aconteceriam naturalmente daqui a alguns anos foram forçadas a acontecer imediatamente. O cenário atual é também comparado com cenários de guerra, como expressamente referendado pela chanceler alemã, Angela Merkel. E essa aceleração do mundo em épocas de guerra é bastante evidente. As soluções encontradas nesses períodos de dificuldade acabam sendo cruciais na sequência do desenvolvimento social e tecnológico.
Podemos citar, como reflexos irrefreáveis da pandemia, a regulação da telemedicina, do teletrabalho, o ensino a distância, aceleração do comércio eletrônico e a digitalização de vários serviços governamentais e corporativos que até então não faziam parte deste mundo virtual.
Esse fenômeno é sem dúvida muito interessante para a economia e a princípio também para a sociedade. Existe, contudo, um risco que precisa ser mitigado: por antecipar o que poderia ocorrer naturalmente, ela evita a maturidade da sociedade para refletir sobre os riscos destas tecnologias.
Que viveremos em um mundo mais vigiado, o próprio [George] Orwell escreveu há quase um século. Mesmo raciocínio para um mundo repleto de robôs, previsto por Isaac Asimov há 70 anos. A pergunta, portanto, não é “se”, mas “quando”. E a sociedade atual não tem maturidade suficiente para compreender os riscos dessa chamada sociedade da vigilância como proposto por Stéfano Rodotà nos idos dos anos 1970/80.
Assim, essas tecnologias acabam sendo utilizadas sem o necessário debate público, sem regulação mínima e sem que a sociedade consiga enxergar riscos e impactos. Isso é terrível e muito preocupante.
É nesse momento – de vulnerabilidade social e jurídica – que as revoluções ocorrem. As revoluções tecnológicas são silenciosas, apresentadas como sonho de consumo e envelopadas em um pacote de liberdade. Quando menos percebemos elas passam a fazer parte do nosso mundo de maneira praticamente imperceptível (como meus pais viviam sem celular? sem assistente virtual?).
Será tarde demais quando percebermos que essa tecnologia envelopada com a ideia de liberdade, autonomia e segurança nos transformou em commodities das nossas próprias vidas. Quando nossa liberdade se restringir a uma mesma plataforma, a um mesmo software, a um mesmo desenvolvedor. Como pontua Mangabeira Unger, é a ditadura da falta de opção. Não existe liberdade quando nossas vidas estão planilhadas, indexadas, calculadas e traçadas (como referência, além dos óbvios 1984 e Admirável Mundo novo, podemos citar Minority Report de Spielberg e a recente temporada de WestWorld com o personagem tentando vencer o destino que lhe havia sido dado por uma IA suprema).
Se for verdade que o mundo avançou dez anos na pandemia, então precisamos fazer com que o debate público e a regulação também avancem dez anos, o que é tarefa muito difícil de ser conseguida. O Direito como ciência social aplicada é naturalmente uma ciência reativa: reage aos novos desafios sociais. Por sorte, muitas pessoas que cresceram no Vale do Silício abriram os olhos para os riscos da tecnologia e denunciaram abusos e problemas (Snowden provavelmente é o mais famoso deles), o que tem permitido que cientistas políticos e sociais formulem teses cada vez mais contundentes (Evgeny Morozov, Yuval Harari, Manuel Castells, dentre inúmeros outros). Até mesmo fundadores de gigantes de tecnologia demonstram preocupação com o avanço delas (Elon Musk por exemplo diz que a IA pode colocar a humanidade em risco).
Essas pessoas têm conseguido importante espaço na mídia e na academia, a fim de fomentar o debate sobre os riscos civilizatórios dessa vigilância maciça, que se desenha na literatura há décadas e que já é realidade na China (vale a consulta e o estudo do “social credit score” chinês e de como eles conseguem identificar as pessoas pela forma de andar).
Precisamos, a todo custo, combater a possibilidade de que essas tecnologias de rastreamento utilizadas como mecanismos extraordinários de controle social venham a se tornar regra. Elas não são necessárias. Principalmente diante da ausência de regras de controle e de debate público sobre elas. A democracia não se satisfaz pelo desejo do príncipe e da corte. O pressuposto da democracia – desde os primórdios gregos – é o debate público.
Infelizmente, devo dizer que os exemplos dados são já realidade em países que superaram a crise de saúde pública causada pela pandemia. Passaportes digitais, QR Code que identificam quem teve ou não teve a doença e termômetros nas empresas já são realidades. É uma realidade curiosa, na qual quem não contraiu a doença poderá ser discriminado e segregado, pelo risco que ainda representa para a sociedade como um todo.
Aliado a isso, temos ouvido com cada vez mais frequência a ideia de um mundo novo pós-pandemia. O discurso do “novo” em regra é utilizado para propagar algo aparentemente bom. “Novas tecnologias”, “novo normal”, “novo mundo”, “nova economia”, “ano novo”. Expressões cunhadas na ideia de renovação das esperanças, de início de um novo ciclo, de possibilidade das pessoas se reinventarem e até mesmo de abandonarem o passado. A história, todavia, não permite esse pensamento. O “novo” não necessariamente é algo bom. Abandonar o passado, então, é o primeiro passo para tropeçar no futuro. Enquanto isso, muita gente tem a ganhar com o “novo” e não necessariamente esse será um ganho social. O “novo” preocupa. O alerta já está no título da obra de Aldous Huxley, “Admirável Mundo Novo”.
IHU On-Line - Por conta da pandemia de covid-19, voltou à tona a discussão sobre o uso de tecnologias sem contato, como a de reconhecimento facial. Há uma expectativa de que pós-pandemia algumas empresas substituam dispositivos de leitura digital por dispositivos de reconhecimento facial ou leitura da íris. O que essa mudança indica e o que questões a adesão a esse tipo de tecnologia gera do ponto de vista jurídico?
Marcelo Chiavassa de Mello Paula Lima - Os sistemas de reconhecimento facial são cada vez mais utilizados para diferentes serviços. Desbloqueio de smartphones, carros autônomos, formas de pagamento (China), vigilância policial, vigilância privada para segurança, câmeras de trânsito, marcação em fotos e posts em mídias sociais, embarque em aeronaves, dentre outros muitos exemplos que poderiam ser citados. Parece um sonho, onde basta um sorriso para que muitos serviços estejam à nossa disposição, em um mundo seguro e confiável.
Todavia, os riscos são também bastante elevados. É graças ao reconhecimento facial que Estados não democráticos estão criando sistemas de “score” social (China, por exemplo), baseado no comportamento dos cidadãos – monitorados o tempo todo, de forma quase ininterrupta (sobre a vigilância incessante, Londres leva isso a outro patamar, para não falarmos dos EUA e do caso Edward Snowden).
Não deixa de ser curioso que as propagadas vantagens do sistema de reconhecimento facial não tenham sido suficientes para que a tecnologia fosse expulsa da cidade que é o berço do Vale do Silício: São Francisco/EUA, sob o pretexto da tutela da privacidade. Nova York também decidiu pela não adoção da tecnologia após testes malsucedidos e estudos estimam que a tecnologia da polícia inglesa erra em 80% das vezes. Fora a maior probabilidade que os carros autônomos têm de atropelar negros, na medida em que o sistema de reconhecimento facial não identificava satisfatoriamente que negros eram pessoas. Podemos lembrar, ainda, do sistema do Google Fotos que acabou identificando uma pessoa negra como sendo um gorila. Trágico e deprimente. A BBC, em maio de 2019, chegou a reportar que o uso de sistemas de reconhecimento facial é perigosamente irresponsável.
Se a tecnologia funcionasse a contento, ainda assim existiriam problemas. Mas diante de uma tecnologia – ainda – muito falha, é impensável que estejamos a utilizá-la de maneira tão contundente (mais de 98 países – Brasil inclusive –, além de outros 25 em vias de implementação e apenas três que baniram a tecnologia) segundo levantamento recente do Visual Capitalist.
Cientistas sociais, juristas e ativistas ao redor do mundo definem o reconhecimento facial como a última etapa da vigilância massiva. Woodrow chega a dizer que o reconhecimento facial é o mais sensível dos dados sensíveis. Com ela, seremos vigiados 24h por dia, seja sentado sozinho em um banco no final da tarde lendo um livro, seja pulando carnaval nos blocos de Salvador no meio de milhões de pessoas. Não seremos nunca mais anônimos. Um Estado que detenha e se utilize dessa tecnologia não tem adversários políticos. Revoluções podem ser combatidas em frações de segundos. Seremos seguidos o tempo todo. Monitorados, rotulados, classificados. O Estado vai saber quais livros você lê na praça. Qual a sua cafeteria preferida. Com quem você saiu para almoçar/jantar. Usar máscaras pode não ser suficiente diante da tecnologia chinesa que identifica as pessoas pelo modo de andar.
Não parece ser um mundo muito bom para se viver. Definitivamente. Me traz sempre a imagem de filmes e cenários distópicos, que quando terminam nos fazem refletir sobre o quão longe estamos de um cenário daqueles. A verdade é que nunca estivemos tão próximos.
Aliás, o reconhecimento facial traz consigo um mundo muito curioso, nos quais fatalmente teremos vendas de acessórios que impeçam/dificultem a identificação dos usuários (tal qual os sprays que refletem a luz da câmera nas placas do carro).
Além do risco de o Estado vigiar toda a população, ainda seremos reféns das grandes empresas de tecnologia. Afinal, serão elas que cederão a tecnologia para os Estados realizarem o monitoramento, questão muito problematizada por Evgeny Morozov, o que faz, em última instância, que essas empresas possam ter mais poder que muitos países.
Eu insisto: se é ruim para o Vale do Silício (as cidades de São Francisco e de Berkeley que o digam, já que baniram a tecnologia), certamente não é bom para nenhum de nós. E ainda assim, governantes de quase todo o mundo parecem gostar da tecnologia.
IHU On-Line - Alguns pesquisadores da área do Direito afirmam que não há justificativa jurídica para a implementação de mecanismos de controle e questionam se a vigilância punitiva é o caminho para alcançarmos uma sociedade saudável e segura. O senhor concorda com esse tipo de objeção a justificativas jurídicas para o uso dessas tecnologias?
Marcelo Chiavassa de Mello Paula Lima - Estou definitivamente de acordo. A vigilância punitiva não pode ser a solução. Muito me preocupa a adoção de tecnologias como geolocalização, reconhecimento facial e a criação de bases de dados genéticas da população (o que constava, aliás, no pacote anticrime proposto pelo então ministro da Justiça Sérgio Moro, que obrigava que toda pessoa condenada por crime doloso tivesse seu DNA catalogado e indexado em uma base de dados do Estado).
[Stefano] Rodotà conta a história de um xerife de uma pequena cidade que tentou convencer todos os homens daquela cidade a se submeterem a um exame de DNA, a partir do sangue de um criminoso encontrado na cena do crime. O lema do xerife – tal qual defendido por muitos que pensam igual – é o velho “quem não deve, não teme”. A ideia era, sob esse pretexto, convencer as pessoas inocentes a fazerem o exame, até que restasse apenas uma pessoa que não o tivesse realizado. Aquela pessoa seria a culpada, afinal, se assim não o fosse, ela teria se voluntariado para fazer o exame. Seria, portanto, culpada, apesar da completa ausência de provas, simplesmente pelo fato de que “quem não deve, não teme”.
Nada mais equivocado e insano. Compete ao Estado provar a culpa, e não o inverso. Se o Estado é incompetente, não compete ao cidadão responder por isso. É notório, aliás, o direito do suspeito de não se incriminar (direito que talvez encontre sua tutela mais notória na Quinta Emenda norte-americana, que garante o direito de a pessoa não responder a nenhuma pergunta que possa incriminá-la, sem que isso seja levado em consideração para fins de acusação).
A inversão dessa lógica é perversa e cruel, pois exigiria que um cidadão tivesse que lutar – muitas vezes com parcos recursos – contra todo o Estado (e contra o sistema) a fim de provar a sua inocência. Precisa ser muito doido para defender isso. E infelizmente ainda existem pessoas que defendem.
No exemplo acima, o culpado poderia ser um estrangeiro, fator não considerado pelo xerife. A pessoa errada seria presa, simplesmente porque não quis realizar o procedimento de coleta de sangue para fins de análise do DNA.
O município do Rio de Janeiro, no primeiro dia de utilização do sistema de reconhecimento facial pela polícia, acabou detendo a pessoa errada (o sistema falhou!). O único critério utilizado para a detenção foi o reconhecimento facial. Como pode essa pessoa se defender? Como ela irá provar que a máquina falhou? Como ela vai defender sua liberdade contra a força inquisitória do Estado?
A adoção destas medidas seria bastante prejudicial às camadas sociais que mais precisam ser protegidas: os menos favorecidos economicamente, que no Brasil são essencialmente caracterizados por negros. Essas pessoas provavelmente serão condenadas em uma proporção muito maior, acentuando ainda mais um dos principais problemas da justiça penal no Brasil e no mundo (EUA provavelmente é o país onde isso é mais evidente – vale a pena assistir ao documentário A 13ª Emenda sobre esse tema).
Trailer de A 13ª Emenda (2016), de Ava DuVernay
A presunção de inocência – princípio máximo do Direito Penal e esculpido no art. 5º, inciso LVII da Constituição Federal do Brasil (e que andou apanhando bastante nos últimos anos) – é fruto de conquista histórica do povo sobre o Estado. Visa proteger todos, inclusive as minorias, contra os mandos e desmandos arbitrários dos mais fortes (Estado, inclusive). Recomendo aqui o filme Doze homens e uma sentença.
Doze homens e uma sentença (1957), de Sidney Lumet
Não podemos ignorar, ainda, a utilização do algoritmo preditivo Compas na Flórida, que era utilizado para indicar se uma pessoa tinha mais ou menos probabilidade de reincidir criminalmente e que acabou sendo considerado discriminatório (considerava que negros eram muito mais nocivos do que brancos), apesar de alguns estudos pontuarem o contrário. Esse algoritmo era usado por juízes da Flórida para decidir sobre a adoção ou não de regime prisional mais benéfico ao preso. Ademais, esse algoritmo teve uma taxa de acerto praticamente idêntica à de pessoas em um bar que viam as fotografias e apostavam na reincidência ou não. Ou seja, sob a veste de uma solução brilhante, o produto basicamente tinha a mesma capacidade de acerto de uma pessoa comum, com a diferença que vinha sendo utilizado indiscriminadamente e sem nenhum controle adicional na Flórida.
O risco da adoção das novas tecnologias é este: elas nos fazem acreditar que são infalíveis. E se aceitarmos isso e ignorarmos mecanismos de controle e correção, então fatalmente perpetuaremos injustiças.
Para utilizar a expressão do momento, reitero: o Estado que lute para demonstrar a culpa. Qualquer tentativa de inversão dessa regra deve ser combatida. E esse é um dos principais riscos advindos dessa sociedade da vigilância.
IHU On-Line - Do ponto de vista jurídico, que questões precisam ser contempladas pela lei para regular esse tipo de tecnologias?
Marcelo Chiavassa de Mello Paula Lima - Acho que neste momento o leitor deve imaginar que sou um opositor ferrenho das novas tecnologias. Muito pelo contrário. Sou entusiasta. A tecnologia não pode ser culpada pelo uso que mentes humanas fazem dela.
Toda tecnologia apresenta riscos, desde máquinas industriais (trabalhadores perdiam dedos, mãos, braços e a própria vida em máquinas na Revolução Industrial) até tecnologias de ponta como fissão nuclear (Nagasaki e Hiroshima que o digam), raio-X, e as radiações emitidas por aparelho celular, por exemplo.
Não posso ser contrário à inovação tecnológica (abstratamente), pois isso além de ser inútil seria também estúpido. Todavia, sou contrário sim a tecnologias, ainda que úteis, que sejam falhas, inseguras, e/ou sejam usadas para finalidades indesejadas/ilícitas. Essa é a luta a ser travada.
Todo mundo concorda que um smartphone tem ferramentas muito úteis para o dia a dia e que transformaram o nosso mundo. Não posso ser contrário a isso. Mas posso condenar a utilização deles para monitoramento individual e social. Posso condenar que ele colete dados pessoais sem a minha autorização. Posso condenar as estratégias de cassino utilizadas por diversos aplicativos para que fiquemos viciados neles e não consigamos fazer nada mais produtivo durante o dia.
Exigir controle e regulação não pode fazer com que alguém seja considerado contrário à tecnologia, mas infelizmente é isso que acaba sendo visto pela sociedade. Quem se posiciona a favor da regulação é um chato que quer atrapalhar as brilhantes soluções criadas nos centros de excelência dos EUA e China. A simplificação do debate interessa apenas às empresas de tecnologia que desejam impor suas criações à sociedade.
O reconhecimento facial, como tecnologia, tem um lado bastante interessante. Por exemplo, carros autônomos precisam desta tecnologia para entenderem se tem ou não uma pessoa à frente, na rua. Se for uma pessoa, ele precisa frear e preservar a vida dela. Isso, todavia, não significa permitir que o carro identifique a pessoa na rua. Basta ele saber que é uma pessoa. Ainda assim, não podemos permitir que um carro desses circule quando ele tem muito maior probabilidade de atropelar um negro do que um branco. Ele só pode ir para a rua quando for seguro e estável. Isso demanda testes, auditorias, controle externo, relatórios e demonstrações. Infelizmente muitas tecnologias acabam sendo incorporadas sem que essa fase esteja completa.
É o mesmo raciocínio a ser aplicado pela utilização do sistema de reconhecimento facial para fins de prisão de suspeitos quando este é o único elemento da prisão e quando este software não for passível de auditoria para confirmar sua seriedade e segurança. Esse, aliás, é outro risco de depender da tecnologia de empresas privadas, na medida em que elas não desejam que órgãos públicos ou que a sociedade como um todo auditem suas plataformas que valem milhões e milhões de dólares. E aí precisamos confiar no que elas dizem e prometem...podemos lembrar de várias condenações mundo afora que gigantes da tecnologia já sofreram por fazer aquilo que elas diziam não fazer (Facebook e Cambridge Analytica são um ótimo exemplo disso – quem se interessar pode assistir ao documentário Privacidade Hackeada).
O ideal seria a adoção de plataformas abertas, open source, que permitem o controle pela sociedade. É o que algumas cidades mundo afora vêm adotando quando se fala em “smart cities” (cidades inteligentes), a fim de terem maior neutralidade e independência em relação às grandes empresas de tecnologia. Quanto mais dependente uma cidade fica de uma tecnologia de terceiro, mais difícil é regulá-la, já que interesses outros entram em cena (notória aqui a estratégia de regulação controlada que empresas como Uber tem proposto aos países em troca de dados que possam interessar aos Estados, como, por exemplo, dados de tráfego em tempo real, dados de rotas mais viajadas e assim por diante). Quem se interessar pelo tema pode ler os textos de Evgeny Morozov e Francesca Bria.
A regulação das novas tecnologias, portanto, não pode ser vista como um entrave pela sociedade, mas sim como um passo necessário para que consigamos criar regras de segurança, controle e estabilidade da tecnologia. Como podemos fazer isso? Com a criação de um ambiente legal e regulatório que permita o debate público, que imponha a segurança necessária e esperada para as novas tecnologias (inclusive com auditoria frequente sobre algoritmos e coleta de dados), e que coloque em primeiro plano o bem-estar da sociedade, e não o interesse de poucos.
Vale ainda dizer que a regulação meramente jurídica não é suficiente. Tem sido cada vez mais frequente a necessidade de se utilizar da própria tecnologia para atingir resultados satisfatórios (como referência, analisar os estudos de Lessig e Woodrow). Disto resulta a ideia de “privacy by design” (tecnologia que respeite as normas de privacidade desde o seu desenvolvimento inicial). Na mesma esteira está a recente – e quente – discussão sobre os limites éticos a serem impostos no desenvolvimento da Inteligência Artificial, tema que vem sendo debatido há alguns anos (talvez décadas se considerarmos que base são os livros de ficção de Asimov e suas regras da robótica) e que cada vez mais ganha espaço no Brasil, principalmente após a Organização para a Cooperação e Desenvolvimento Econômico - OCDE traçar diretrizes nesse sentido.
O exemplo mais recente – e que demonstra, pela sua simplicidade, que as recentes tentativas de regular o tema no Congresso Nacional por meio da criminalização poderiam ser muito mais efetivas se, por exemplo, proibissem o anúncio em sites comprovadamente partícipes do ecossistema de desinformação – é o movimento recém-chegado ao Brasil, denominado Sleeping Giants, que visa informar as empresas que seus anúncios estão sendo veiculados em sites não muito confiáveis. O objetivo é fazer com que as empresas retirem os anúncios e com isso esse ecossistema vai definhar financeiramente e eventualmente desaparecer.
IHU On-Line - Como a discussão sobre Inteligência Artificial, reconhecimento facial, reconhecimento digital, leitores de íris e dispositivos de controle tem sido tratada no mundo jurídico?
Marcelo Chiavassa de Mello Paula Lima - Para além do que já foi respondido anteriormente, os dados biométricos (íris, face, digital, voz, impressão digital) são considerados dados sensíveis pela Lei Geral de Proteção de Dados Pessoais - LGPD (Lei nº 13709/2018), o que implica que a atividade de coleta e tratamento de dados pessoais tenha um grau de exigência maior do que os dados pessoais considerados não sensíveis.
Isso acontece porque a categoria dos dados sensíveis traz um risco maior à intimidade e privacidade das pessoas, inclusive com maior possibilidade de discriminação (cor da pele, determinada doença, religião, opção sexual etc.) social.
Paralelamente à LGPD, tramita no Congresso Nacional proposta de emenda à Constituição que visa estabelecer a proteção de dados pessoais como direito fundamental, a ser inserida no art. 5º da Constituição Federal.
Ainda sem legislação específica, vale mencionar que o Judiciário tem dado resposta satisfatória em relação à tutela dos dados pessoais, seja com fundamento nas regras do Marco Civil da Internet, seja com fundamento no próprio direito à privacidade previsto na Constituição Federal, a exemplo do recente julgado do Supremo Tribunal Federal que declarou inconstitucional a MP 954/2020, que determinava às empresas de Telecom entregar ao Instituto Brasileiro de Geografia e Estatística - IBGE dados pessoais (nome completo, endereço e número de telefone) de todas as pessoas do país para fins de estatística oficial para combate à covid-19.
Vale ressaltar que o tema da proteção de dados pessoais não é recente. A Europa possui regras desde a década de 70 (França), com rápida adesão de outros países, principalmente Alemanha (muito por causa de como os dados pessoais foram utilizados por Hitler para mapear judeus e outras minorias nas décadas de 30 e 40).
Em relação à Inteligência Artificial, a tentativa de regulação é bem mais recente. União Europeia e Organização das Nações Unidas para a Educação, a Ciência e a Cultura - Unesco tem se posicionado sobre o tema desde meados de 2016. Muitas empresas privadas que atuam no tema também têm noticiado sobre a adoção de princípios éticos que estão sendo utilizados em suas plataformas. No Brasil, o tema surgiu com a ratificação dos princípios de ética elencados pela OCDE e pelos planos nacionais de Inteligência Artificial desenvolvidos pelo Ministério da Ciência, Tecnologia, Inovação e Comunicação - MCTIC. No final de 2019, o Ministério abriu, inclusive, consulta pública para a elaboração da Estratégia Brasileira de Inteligência Artificial.
Sobre reconhecimento facial, apesar da ausência de regras específicas sobre o tema, a tecnologia vem sendo utilizada por municípios como Rio de Janeiro, Salvador, Campinas e outros, principalmente para fins de persecução e identificação de criminosos (com todas as ressalvas de falha do sistema já mencionadas anteriormente). A tecnologia esbarra nas regras da Lei Geral de Proteção de Dados Pessoais, e a vigência da Lei pode trazer maior segurança na adoção da tecnologia. Outros países – China, por exemplo – permitem que pagamentos sejam realizados com um sorriso, o que é bacana, mas altamente invasivo.
IHU On-Line - Como a Lei Geral de Proteção de Dados Pessoais - LGPD, que está sendo discutida, trata o uso de dispositivos tecnológicos no Brasil?
Marcelo Chiavassa de Mello Paula Lima - A premissa da LGPD é devolver ao titular o controle sobre seus dados pessoais. Na sociedade da informação, o ouro não é mais amarelo ou preto (petróleo). Não é sequer físico ou tangível. O ouro da sociedade atual é incorpóreo, intangível e abstrato. Seu valor apenas pode ser estimado com o auxílio de sistemas computacionais (hardware) e de modelos matemáticos previamente desenvolvidos para determinada finalidade (algoritmos - software).
Quanto maior a base de dados, maior a capacidade de extrair informações úteis e cruciais para as empresas traçarem perfis virtuais da sociedade. Estes perfis são utilizados para marketing direto, mapear opiniões políticas, análise de crédito, mapear pessoas consideradas críticas para o Estado, dentre outras inúmeras finalidades.
Cada pessoa é única e individualizável. Ainda que características físicas possam ser iguais (gêmeos univitelinos, por exemplo), a psique, o modo de pensar, o modo de andar e outras características serão sempre únicas. A pessoa é individualizada na sociedade através da estruturação de seus dados (toda e qualquer característica que ela apresente). Dados pessoais são, portanto, toda característica que permita, ou possa permitir (dados identificáveis) a identificação de uma pessoa.
Se é possível a identificação de uma pessoa pelos seus dados pessoais, é imperioso que se proteja a pessoa da coleta e análise de seus dados pessoais de maneira indevida. Não é por outra razão que cada vez mais os problemas decorrentes do vazamento da base de dados de empresas que implicam na possibilidade de identificação de transações comerciais, gostos pessoais, perfis virtuais etc. de milhares de pessoas ao redor do mundo tenham ganhado tanto espaço na mídia e virado objeto de preocupação global.
Em linhas gerais, ela estabelece regras rígidas sobre coleta e tratamento de dados pessoais, que necessariamente devem se enquadrar em alguma das dez bases legais que permitem esta atividade. São elas:
(i) consentimento livre e expresso;
(ii) cumprimento de obrigação legal ou regulatória;
(iii) tratamento, pela administração pública, de dados necessários à execução de políticas públicas;
(iv) realização de estudos por órgãos de pesquisa;
(v) necessidade contratual;
(vi) exercício regular de direitos em processo judicial, administrativo ou arbitral;
(vii) proteção da vida ou da incolumidade física do titular ou de terceiro a ele vinculado;
(viii) tutela da saúde;
(ix) legítimo interesse; e
(x) proteção ao crédito.
Além disso, possui também dez princípios que norteiam todo o texto legislativo:
(i) finalidade;
(ii) adequação;
(iii) necessidade;
(iv) livre acesso;
(v) qualidade de dados;
(vi) transparência;
(vii) segurança;
(viii) prevenção;
(ix) não discriminação;
(x) responsabilização e prestação de contas.
A lei ainda estabelece os direitos básicos do titular de dados, a saber:
(i) confirmação sobre a existência do tratamento;
(ii) acesso aos dados;
(iii) correção de dados incompletos, inexatos ou desatualizados;
(iv) anonimização, bloqueio ou eliminação de dados desnecessários, excessivos ou tratados em desconformidade com a LGPD;
(v) eliminação dos dados pessoais tratados com o consentimento do titular;
(vi) informação sobre as entidades públicas e privadas com as quais o controlador realizou uso compartilhado de dados;
(vii) informação sobre a possibilidade de não fornecer consentimento e sobre as consequências da negativa;
(ix) revogação do consentimento.
Os princípios, as bases legais e os direitos dos titulares garantem assim um ecossistema bastante efetivo na proteção da privacidade dos titulares de dados, principalmente quando somados às melhores práticas advindas da União Europeia, como a política de desabilitação dos cookies supérfluos e das regras de privacidade de plataformas by default, a construção de novas soluções que já tenha em vista a proteção de dados (privacy by design) e a limitação do compartilhamento de dados pessoais com outros agentes de tratamento de dados.
A LGPD não proíbe o uso de nenhuma tecnologia, mas cria um sistema de proteção à privacidade dos cidadãos que deve ser observada pelas empresas que desenvolvem a tecnologia, sob pena das sanções cabíveis em lei. Será, sem dúvida, um passo muito importante na regulação das tecnologias, ainda que com o foco voltado à tutela da privacidade.