12 Dezembro 2023
Bruxelas celebra como um "momento histórico" o acordo, que deixa dúvidas sobre sua aplicação e o controle efetivo das empresas.
A reportagem é de Silvya Ayuso e Patricia Fernández de Lis, publicada por El País, 10-12-2023.
A União Europeia alcançou seu objetivo de ser a primeira região do mundo a possuir uma lei abrangente para regular a inteligência artificial (IA), uma tecnologia que gera tantas expectativas quanto preocupações devido ao seu potencial disruptivo. Embora o acordo alcançado após várias sessões de negociações maratônicas ainda seja provisório, aguardando a ratificação tanto dos Estados-membros quanto do Parlamento Europeu, em Bruxelas o pacto foi celebrado como um "momento histórico", nas palavras da presidente da Comissão Europeia, Ursula von der Leyen, que afirmou que "os valores europeus estão sendo transpostos para uma nova era", a era da IA. Com este marco, a Europa não apenas busca oferecer um quadro legislativo que impulsione a competitividade e inovação no setor, ao mesmo tempo em que protege seus cidadãos; também pretende estabelecer o modelo normativo a ser seguido pelo restante do mundo.
Paradoxalmente, uma das leis mais futuristas, a ponto de buscar regular tecnologias ou funções que ainda nem existem, foi negociada sob a presidência espanhola da UE da maneira mais tradicional de Bruxelas: cara a cara, a portas fechadas, em uma sessão maratônica na qual os representantes de todas as instituições europeias - o Conselho (os Estados), o Parlamento Europeu e a Comissão Europeia - discutiram ponto a ponto e artigo por artigo a regulamentação, com poucas pausas, muito café (embora a máquina tenha quebrado na primeira madrugada), sanduíches e sucos para suportar o que foi unanimemente chamado de "ultramaratona" de 36 horas (22 horas seguidas na primeira rodada e, após uma pausa na quinta-feira, mais 14 na sexta-feira até quase a meia-noite).
Os negociadores europeus tentaram navegar entre duas águas, buscando regras que permitam controlar a inteligência artificial e garantir que os desenvolvedores compartilhem informações importantes com os provedores de IA intermediária, incluindo muitas pequenas e médias empresas europeias, e ao mesmo tempo evitando uma "carga excessiva" para as empresas, segundo o comissário do Mercado Interno, Thierry Breton, um dos grandes impulsionadores da regulamentação.
A lei se concentra especialmente na chamada "IA de propósito geral", por exemplo, o popular ChatGPT. Ela adota uma abordagem de dois níveis: exige transparência para todos esses modelos de IA de uso geral e requisitos ainda mais rigorosos para modelos "poderosos" que tenham "impactos sistêmicos em todo o nosso Mercado Único da UE". O que mais preocupa os legisladores é que modelos como o ChatGPT são totalmente fechados, ou seja, suas entranhas técnicas não são conhecidas, ao contrário dos modelos de código aberto (open source).
Para os primeiros, a lei inclui a exigência de que as empresas elaborem documentação técnica, cumpram a lei de direitos autorais da UE e divulguem resumos detalhados sobre o conteúdo utilizado para treinamento.
Para os modelos de alto impacto "com risco sistêmico", os negociadores do Parlamento buscaram obrigações mais rigorosas. Se esses modelos atenderem a certos critérios (ainda a serem definidos), terão que realizar avaliações de modelos, avaliar e mitigar riscos sistêmicos, fazer testes contínuos, informar à Comissão sobre incidentes graves, garantir a cibersegurança e relatar sua eficiência energética. E se não cumprirem, serão sancionados.
A abordagem da UE foi não intervir desde o início, mas sim com base nos riscos de cada uma das tecnologias. Nas palavras de Breton: "[Esta lei] nos permite proibir o uso da IA que viole os direitos fundamentais e os valores da UE, estabelecer regras claras para casos de uso de alto risco e promover a inovação sem barreiras para todos os casos de uso de baixo risco".
Exemplos de sistemas de IA de alto risco incluem certas infraestruturas críticas, como água, gás e eletricidade; dispositivos médicos; sistemas para determinar o acesso a instituições educacionais; ou certos sistemas usados nos campos da aplicação da lei, controle de fronteiras, administração da justiça e processos democráticos.
A Europa se orgulha de seus "valores europeus" e do respeito aos direitos fundamentais. Ao legislar sobre uma tecnologia com tantas incertezas futuras e tanta capacidade intrusiva, o Parlamento Europeu travou uma dura batalha desde o início para preservar ao máximo as liberdades e direitos dos cidadãos. Os representantes dos legisladores europeus foram para a mesa de negociações com uma longa lista de funções de IA a serem proibidas, especialmente os chamados sistemas de vigilância biométrica. Limites que vários Estados queriam reduzir substancialmente em nome da segurança nacional e interesses militares (além de outros menos proclamados economicamente) e que resultaram em algumas concessões. No entanto, após as negociações, os dois relatores da regulamentação, o social-democrata italiano Brando Benifei e o liberal romeno Dragos Tudorache, saíram com um largo sorriso afirmando que tinham conseguido "defender os cidadãos dos riscos que a IA pode implicar no dia a dia".
Assim, a futura lei de IA aponta "riscos inaceitáveis" pelos quais serão proibidos sistemas de IA que sejam considerados uma clara ameaça aos direitos fundamentais. Isso inclui sistemas ou aplicativos de inteligência artificial que "manipulem o comportamento humano" para contornar o livre arbítrio dos usuários ou sistemas que permitam a "pontuação social" por parte de governos ou empresas. Esses sistemas de pontuação social (social scoring) são muito polêmicos porque usam a IA para avaliar a confiabilidade de um indivíduo com base em seu sexo, raça, saúde, comportamento social ou preferências. Também serão proibidos sistemas de reconhecimento de emoções no local de trabalho e em instituições educacionais, bem como a categorização biométrica para deduzir dados sensíveis, como orientação sexual ou crenças políticas ou religiosas, e alguns casos de policiamento preditivo para indivíduos e sistemas que criam bases de dados faciais capturando dados indiscriminadamente pela internet ou por gravações audiovisuais, como o Clearview AI.
E embora os eurodeputados tenham cedido na linha vermelha que haviam estabelecido sobre o uso de sistemas de vigilância biométrica em tempo real em espaços públicos, esses só poderão ser usados pelas forças de segurança e exigirão salvaguardas rigorosas, como uma ordem judicial e um uso muito restrito: para procurar vítimas de sequestro, tráfico humano ou exploração sexual, para prevenir uma ameaça terrorista "genuína e previsível" ou "genuína e presente", ou seja, que já está ocorrendo, ou para a localização ou identificação de um suspeito de crimes específicos (terrorismo, tráfico, assassinato, sequestro, estupro, roubo armado ou um crime ambiental, entre outros). Embora com menos restrições, o uso "ex post" desses sistemas também será muito controlado.
A lei também exigirá uma "avaliação do impacto nos direitos fundamentais" antes que um sistema de IA de "alto risco" possa ser lançado no mercado.
Entre outras coisas, a regulamentação prevê a criação de uma Agência de IA, que estará dentro da Comissão Europeia e terá a tarefa de "supervisionar os modelos mais avançados de IA, contribuir para promover padrões e práticas de teste, bem como o cumprimento das normas em todos os Estados-membros". Receberá aconselhamento sobre os modelos GPAI de um painel científico composto por especialistas independentes e da sociedade civil.
Além disso, não é uma lei sem poderes: a regulamentação prevê duras sanções para os infratores, seja um percentual do volume total de negócios da empresa infratora no ano fiscal anterior ou até mesmo uma quantia predeterminada "ainda maior". A multa pode chegar a 35 milhões de euros ou 7% por violações de aplicativos proibidos de IA, e a mais baixa é de 7,5 milhões ou 1,5% do volume de negócios por fornecer informações incorretas.
O acordo político "provisório" está agora sujeito à aprovação formal do Parlamento Europeu e do Conselho. Uma vez adotada a Lei de IA, haverá um período de transição antes que ela seja aplicável. Para economizar tempo, a Comissão assegura que lançará um "pacto sobre IA": convocará desenvolvedores de IA da Europa e de todo o mundo para se comprometerem voluntariamente a implementar as obrigações-chave da Lei de IA antes dos prazos legais. Não se espera que a lei esteja totalmente em vigor antes de 2026, embora algumas partes comecem a funcionar antes.
As principais empresas por trás dos modelos de IA atuais já afirmaram que respeitarão a lei, embora tenham pedido que sua aplicação "não seja um obstáculo". As empresas responsáveis por esses desenvolvimentos têm trabalhado paralelamente à negociação da norma para garantir uma evolução ética dessas ferramentas, de modo que a norma esteja de acordo com suas expectativas gerais, desde que, segundo Christina Montgomery, vice-presidente e diretora de Privacidade e Confiança da IBM, "forneça barreiras de proteção para a sociedade ao mesmo tempo que promove a inovação".
No entanto, ONGs e especialistas dedicados ao ciberativismo se mostraram surpreendidos e desapontados. Ella Jakubowska, analista especializada em tecnologias de identificação biométrica da ONG europeia de defesa dos direitos digitais EDRi, afirma: "Apesar de muitas promessas, a lei parece destinada a fazer exatamente o oposto do que queríamos. Abrirá caminho para que os 27 Estados-membros da UE legalizem o reconhecimento facial público em tempo real. Isso estabelecerá um precedente perigoso em todo o mundo, legitimará essas tecnologias de vigilância em massa profundamente intrusivas e implicará que exceções podem ser feitas aos nossos direitos humanos". Carmela Troncoso, engenheira de telecomunicações especializada em privacidade na Escola Politécnica Federal de Lausana (Suíça), explica: "Existem muitas proibições muito promissoras, mas também muitos buracos e exceções que não deixam claro que as proibições realmente protegerão os direitos humanos como esperamos, por exemplo, que as forças de segurança usem reconhecimento facial em tempo real para procurar suspeitos. Também é triste que a Espanha tenha estado por trás de algumas das propostas mais preocupantes desta lei", acrescenta Troncoso, criadora da tecnologia que possibilitou os aplicativos de rastreamento da Covid-19.
Entre os aspectos que o acordo não esclarece estão o reconhecimento de emoções. Diz-se que será proibido nos ambientes de trabalho e educacionais, mas ao mesmo tempo é permitido (com restrições) em atividades policiais e gestão de imigração. O mesmo acontece com a coleta (scraping) de dados biométricos: é explicitamente proibido coletar padrões faciais, mas nada é dito sobre o restante dos dados biométricos. Existem sistemas automáticos capazes de identificar pessoas, por exemplo, pela maneira como andam, que não seriam incluídos na proibição, informa Manuel G. Pascual.
Nenhum outro território do mundo possui uma lei que abranja tantos aspectos como a europeia. O presidente americano, Joe Biden, assinou um decreto em outubro que obriga as empresas de tecnologia a notificar o governo sobre qualquer avanço que represente um "risco grave para a segurança nacional". Em particular, as empresas dedicadas à IA nos Estados Unidos, trabalhem ou não com o governo, serão obrigadas a notificar as autoridades federais sobre qualquer avanço que represente um "risco grave para a segurança nacional, econômica, ou para a saúde e segurança públicas", bem como a aprimorar os mecanismos que reforcem a confiança nessas inovações tecnológicas. Poucos dias depois, o primeiro-ministro britânico, Rishi Sunak, convocou uma cúpula da qual resultou o primeiro compromisso de 28 países (incluindo EUA e China) e da UE em relação a esses sistemas, a chamada Declaração de Bletchley, e a criação de um grupo de especialistas para monitorar seus avanços.
FECHAR
Comunique à redação erros de português, de informação ou técnicos encontrados nesta página:
Uma lei pioneira para uma tecnologia cheia de perguntas: as chaves da regulação da IA na UE - Instituto Humanitas Unisinos - IHU