22 Mai 2024
A nova Lei da IA da União Europeia classifica vários usos de inteligência artificial de acordo com quatro níveis de risco, que vão desde a autorização irrestrita até a proibição total.
A reportagem é de Mélinée le Priol, publicado por La Croix International, 21-05-2024.
A Lei da IA, o novo regulamento europeu sobre IA, é caracterizada por uma pirâmide de risco de quatro níveis, que vai desde a luz verde até a proibição total. Sem precedentes em escala global, será adotada definitivamente em 21 de maio, em Bruxelas. Só entrará em pleno vigor no ano de 2026.
Isto marca o fim de um longo processo legislativo (três anos) que foi por vezes interrompido pelo surgimento de novas tecnologias, como o ChatGPT no fim de 2022. Tais desenvolvimentos forçaram os legisladores a rever os seus projetos, intensificando ainda mais a discussão política.
Os quatro níveis de risco resultam de intensa “negociação” entre instituições europeias: que sistema deve ser integrado em que categoria? Para cada decisão, os negociadores sabiam que estavam caminhando numa corda bamba: preservar a segurança e as liberdades individuais sem sufocar a inovação na Europa, correndo o risco de favorecer os Estados Unidos ou a China. Os lobbies tecnológicos, fortemente envolvidos no debate, não ignoraram este ponto.
O texto final traz a sua marca. Mesmo no nível de risco mais elevado, a proibição destas tecnologias raramente é total. A introdução de numerosas isenções (para permitir utilizações seguras da IA, em particular) resulta numa situação paradoxal: ao estabelecer uma proibição acompanhada de isenções, práticas anteriormente proibidas são agora autorizadas. Esse é o caso do reconhecimento facial ou de emoções em tempo real em contextos específicos.
Sem restrição (a menos que o sistema sofra modificações substanciais, caso em que os riscos devem ser reavaliados):
• Videogames: Nvidia, Ubisoft e outros gigantes da indústria entenderam isso bem: a chamada IA generativa (capaz de produzir novos conteúdos após serem treinados em grandes quantidades de dados) oferece possibilidades tentadoras para videogames. Os jogadores de amanhã provavelmente serão capazes, entre outras coisas, de “conversar” oralmente com seus personagens virtuais.
• Filtros de spam: Esses programas de software filtram automaticamente e-mails indesejados ou maliciosos. O e-mail é o principal alvo de infecções e outros ataques cibernéticos.
Obrigação de transparência (indicando que o conteúdo foi gerado por inteligência artificial):
• Manipulação de imagens: Deepfakes, essas fotos ou vídeos falsos cada vez mais realistas e fáceis de criar, geram polêmica regularmente. Algumas destas manipulações fazem com que figuras políticas digam coisas que não disseram; outros retratam mulheres em poses lascivas ou mesmo pornográficas sem o seu consentimento.
• Chatbots: Como tal, os agentes conversacionais (incluindo o famoso ChatGPT) são considerados de “risco moderado”. No entanto, os modelos fundamentais sobre os quais são tecnicamente construídos estão sujeitos a obrigações mais rigorosas, mais rigorosas do que o desejado pela indústria e por alguns estados. Por exemplo, os dados utilizados para treinar estes modelos devem ser divulgados para que os potenciais titulares de direitos possam verificar se o seu conteúdo foi utilizado.
Utilizações sujeitas a procedimentos de conformidade (verificação da qualidade dos dados de formação, minimização dos riscos de discriminação, fornecimento de supervisão humana, etc.):
• Triagem de CV: Software usado para filtrar candidaturas de emprego. Seu principal problema reside nos preconceitos que carregam. A Amazon, por exemplo, abandonou tal ferramenta em 2018 porque discriminava mulheres que se candidatavam a empregos técnicos.
• Justiça preditiva: Envolve prever o resultado de uma disputa legal após analisar algoritmicamente grandes corpora jurídicos. As startups “Legaltech” que oferecem este serviço proliferaram na França, onde existem agora várias centenas.
• Veículos autônomos: No fim da década de 2010, imaginava-se que os motoristas do Uber seriam em breve substituídos por táxis-robôs. No entanto, como estes ainda estão longe de estar aperfeiçoados, o foco está agora em projetos menos ambiciosos, como a travagem automática de emergência ou a condução mãos-livres a baixa velocidade.
• Detecção de documentos falsos: Estes detectores estão entre as novas técnicas disponíveis para a aplicação da lei, tais como câmaras de termovisão para detectar passagens ilegais de fronteira. De forma mais ampla, todos os sistemas de IA utilizados para a gestão da migração são considerados de “alto risco”.
• Pontuação de crédito: Esses programas de software de “pontuação”, já utilizados no mundo bancário, visam avaliar a capacidade creditícia de uma pessoa quando ela solicita um empréstimo. No entanto, podem perpetuar antigos padrões de discriminação (baseados na origem, idade, deficiência, etc.).
Uso proibido:
• Pontuação social: Estes sistemas classificam os indivíduos com base no seu comportamento, como na China, onde, por exemplo, os cidadãos que não pagam as suas dívidas perdem pontos, enquanto aqueles que compram alimentos saudáveis ganham pontos. Estar bem classificado facilita o acesso a cuidados de saúde, empréstimos bancários ou mobilidade.
• Técnicas subliminares: Mensagens destinadas a ficar abaixo do nível de consciência. Introduzir uma imagem em um anúncio a cada 25 segundos será invisível para o espectador, mas poderá servir para manipulá-lo. No entanto, nenhum consenso científico surgiu sobre este ponto.
• Reconhecimento facial em tempo real: Este tema tem sido um dos mais debatidos. Em última análise, o texto prevê isenções para determinadas missões de aplicação da lei: prevenção de ameaças terroristas, identificação de suspeitos de crimes graves ou busca de pessoas desaparecidas.
• Reconhecimento de emoções: O software que afirma detectar emoções a partir de expressões faciais é proibido em ambientes educacionais ou profissionais, mas é permitido no controle de fronteiras. O objetivo é determinar se um migrante é “honesto” sobre o seu pedido de migração.
• Policiamento preditivo: Envolve avaliar, com base nas características de uma pessoa, o risco de ela cometer crimes. Mas a proibição não é total. Estes sistemas podem ser autorizados em investigações criminais para complementar avaliações humanas baseadas em fatos verificáveis.
FECHAR
Comunique à redação erros de português, de informação ou técnicos encontrados nesta página:
Inteligência Artificial: a União Europeia estabelece limites sem precedentes - Instituto Humanitas Unisinos - IHU