No quadro da votação da Lei de Inteligência Artificial no Parlamento Europeu, a sociedade civil apela aos membros do Parlamento Europeu para garantir que a Lei de Inteligência Artificial da UE priorize os direitos fundamentais e proteja as pessoas afetadas pelos sistemas de inteligência artificial (IA).
A declaração é escrita pelo grupo católico Justicia y Paz, publicado por Religión Digital, 23-04-2023.
Cada vez mais vemos a implantação de sistemas de IA para nos monitorar e identificar em espaços públicos, prever nossa probabilidade de crime, redirecionar a vigilância policial e o controle de imigração para áreas já fortemente policiadas, facilitar violações do direito de buscar asilo e da presunção de inocência, prever nossas emoções e nos categorizar por meio de inferências discriminatórias, bem como tomar decisões que determinam nosso acesso ao bem-estar, educação e emprego.
Sem regulamentação adequada , os sistemas de IA exacerbarão os danos sociais existentes de vigilância em massa, discriminação estrutural, poder centralizado de grandes empresas de tecnologia, tomada de decisão pública irresponsável e extração ambiental. Complexidade, falta de responsabilidade pública e transparência e poucos procedimentos de reparação disponíveis tornam difícil para as pessoas exercerem seus direitos quando prejudicadas por sistemas de IA. Em particular, esses obstáculos representam um risco particular para as pessoas mais marginalizadas da sociedade.
ALei de Inteligência Artificial da União Europeia pode e deve abordar essas questões, garantindo que o desenvolvimento e o uso da inteligência artificial ocorram em um quadro de responsabilidade, transparência e limitações apropriadas com base nos direitos fundamentais . Pedimos aos membros do Parlamento Europeu que assegurem o seguinte na votação da Lei da IA:
1. Treine as pessoas afetadas pelos sistemas de IA
Garanta os requisitos de acessibilidade horizontal e integrada para todos os sistemas de IA.
Garanta que as pessoas afetadas por sistemas de IA sejam notificadas e tenham o direito de buscar informações quando forem afetadas por decisões e resultados assistidos por IA.
Inclua o direito das pessoas afetadas de registrar uma reclamação junto a uma autoridade nacional, caso seus direitos tenham sido violados pelo uso de um sistema de IA.
Incluir o direito de representação de pessoas físicas e o direito de organizações de interesse público de apresentar reclamações independentes a uma autoridade supervisora nacional.
Incluir o direito a recursos efetivos em caso de violação de direitos.
2. Garantir responsabilidade e transparência no uso da IA
Inclua a obrigação de os usuários realizarem e publicarem uma avaliação de impacto nos direitos fundamentais antes de implantar um sistema de IA de alto risco e envolver significativamente a sociedade civil e as pessoas afetadas nesse processo.
Exigir que todos os usuários de sistemas de IA de alto risco e usuários de todos os sistemas na esfera pública registrem o uso do sistema no banco de dados europeu de IA antes da implantação.
Certifique-se de que o processo de classificação para sistemas de IA de alto risco priorize a segurança jurídica e não forneça brechas legais aos provedores.
Garantir que os provedores de IA baseados na UE cujos sistemas afetam pessoas fora da UE estejam sujeitos aos mesmos requisitos que os da UE.
3. Proibir sistemas de IA que representem um risco inaceitável aos direitos fundamentais
Proibição total de identificação biométrica remota e em tempo real em espaços de acesso público, por todos os intervenientes, sem exceção.
Proibição de todas as formas de sistemas preditivos e de criação de perfis na aplicação da lei e na justiça criminal (baseado em localização/lugar e baseado em pessoa).
Proibição de IA em contextos de migração para realizar avaliações e perfis de risco individuais, com base em dados pessoais e sensíveis, e sistemas de análise preditiva quando usados para interceptar, restringir e impedir a migração.
Proibição de sistemas de categorização biométrica que classifiquem indivíduos com base em atributos sensíveis ou protegidos, bem como o uso de qualquer sistema de categorização biométrica e detecção automática de comportamento em espaços acessíveis ao público.
Proibição do uso de sistemas de reconhecimento de emoções para inferir alterações e estados mentais das pessoas a partir de dados físicos, fisiológicos, comportamentais e biométricos.
Pedimos aos membros do Parlamento Europeu que votem para incluir essas proteções na Lei de IA e para garantir que este Regulamento seja um veículo para a promoção dos direitos fundamentais e da justiça social.
Uma descrição detalhada de como a Lei de IA pode proteger melhor os direitos fundamentais pode ser conferida na declaração assinada por 123 organizações da sociedade civil . Mais informações sobre as emendas propostas pela sociedade civil aqui .
A Comissão Geral de Justiça e Paz assinou esta declaração.