17 Abril 2024
"A Comissão de Inteligência Artificial para Informação, presidida pelo Padre Paolo Benanti, após cerca de seis meses de trabalho, publicou seu aguardado Relatório sobre o trabalho realizado e, sinceramente, esperávamos mais".
O artigo é de Laura Turrini, advogada e jornalista italiana, em artigo publicado por Settimana News, 16-04-2024.
A Comissão de Inteligência Artificial para Informação, presidida pelo Padre Paolo Benanti, após cerca de seis meses de trabalho, publicou seu aguardado Relatório sobre o trabalho realizado e, sinceramente, esperávamos mais.
A citada comissão considerou o impacto da inteligência artificial exclusivamente no setor de informação e publicação, depois de consultar importantes entidades, como a Federação Italiana de Editores de Jornais (FIEG), a Federação Nacional da Imprensa Italiana (FNSI), a Ordem dos Jornalistas, Google, Meta e Microsoft, sem, no entanto, envolver as pequenas e médias empresas que representam uma parte significativa do tecido econômico italiano.
Do diálogo surgiu o reconhecimento da importância das ferramentas de inteligência artificial no jornalismo, destacando como elas já são amplamente utilizadas para pesquisa, análise, adaptação de formatos editoriais e até mesmo para gerar artigos didáticos. Os jornalistas se beneficiam do uso de sistemas de inteligência artificial e não parecem dispostos a abrir mão deles; por outro lado, os autores e editores querem ser remunerados se seus trabalhos forem usados para treinar sistemas de inteligência artificial.
Que esses dois interesses opostos existem é bem conhecido há muito tempo, e a dificuldade está em encontrar uma solução de compromisso que os satisfaça a ambos. São necessários dados de treinamento e não podem ser remunerados de acordo com os critérios tradicionais, pois os custos seriam insustentáveis.
O Relatório coloca em primeiro lugar, além do homem, o respeito aos direitos autorais e, portanto, considera indispensável que os direitos sejam pagos, sem, no entanto, identificar uma solução eficiente.
É prevista a oportunidade de obrigar os desenvolvedores de sistemas de inteligência artificial a manterem um registro atualizado "contendo os conteúdos informativos protegidos por direitos autorais utilizados para a entrada e, portanto, para o treinamento do algoritmo", expressão que parece se referir aos dados de treinamento, embora não esteja claro se devem ser mantidos na íntegra ou apenas indicados.
O objetivo deste registro parece ser permitir que os detentores de direitos autorais tenham controle sobre a gestão de seus direitos. Neste sentido, sugere-se intervir fortalecendo o opt-out, permitindo que os autores se oponham ao uso de suas obras para treinamento, um direito que, no entanto, não vejo como pode ser exercido após o treinamento do sistema já ter sido concluído, portanto, a utilidade do registro seria limitada nesse aspecto.
O opt-out apresenta, de qualquer forma, algumas questões críticas e a Comissão está ciente disso, pois se todos os autores exercerem esse direito, os sistemas de inteligência artificial correriam o risco de colapsar.
No relatório, é mencionado que "as medidas descritas não têm a intenção de favorecer um opt-out em massa que teria consequências significativas na qualidade dos modelos de inteligência artificial", mas se o direito de opt-out for cristalizado, ou até mesmo fortalecido, ninguém poderá impedir que todos o reivindiquem, a menos que seja previsto por lei, e seria interessante entender como.
Alternativamente, a Comissão sugere formas de licença coletiva, mas mesmo neste caso não se diz qual conteúdo deveriam ter e nem mesmo é sugerida uma solução semelhante à dos SEP, os "patentes essenciais padrão" para os quais existe uma espécie de licença obrigatória a taxas acordadas.
Os litígios em curso nos Estados Unidos mostram que os acordos com os editores não estão sendo encontrados devido à dificuldade prática de identificar formas contratuais adequadas para atender a todos.
Em resumo, as duas soluções indicadas no Relatório, por um lado, não adicionam nada de novo, pois o opt-out já é previsto no artigo 4 da Diretiva 2019/790 e as licenças existem há muito tempo, enquanto, por outro lado, esses institutos não são aplicados de forma inovadora à inteligência artificial e muito menos são sugeridas novas estratégias.
Além disso, o Relatório destaca os riscos relacionados ao uso da inteligência artificial na edição, identificando na "progressiva substituição da criatividade humana" uma crise ocupacional e cultural que poderia aumentar a desinformação, especialmente no campo político.
Os problemas destacados pela Comissão são conhecidos há muito tempo, como indicado no próprio Relatório, mas não são riscos típicos da inteligência artificial e dizem respeito mais ao homem e ao uso que ele faz dela do que à tecnologia em si.
São fenômenos já presentes nas redes sociais e em certos canais de comunicação, nos quais além da desinformação deliberada, também encontramos a "desinformação", consistindo na comunicação de notícias falsas mais por incompetência do que por manipulação, até mesmo as verdadeiras operações de influência, destinadas a enganar o público.
Para garantir a qualidade da informação, que é sem dúvida um valor a ser preservado, o Relatório destaca a necessidade de promover sistemas para identificar as fontes usadas na produção das saídas e a possibilidade de rastrear a origem dos artigos, como já fez a ANSA, experimentalmente, com o "ANSA check", baseado em blockchain, que certifica a origem de suas notícias.
Sugere-se que um sistema semelhante seja aplicado ao conteúdo gerado pela inteligência artificial, embora não esteja claro se a rastreabilidade deva ser aplicada a qualquer saída gerada ou apenas às saídas que tenham conteúdo de notícias, entendido no sentido jornalístico.
A Comissão planeja aplicar à inteligência artificial também o reconhecimento de remuneração justa, previsto no parágrafo 8 do artigo 43-bis da Lei 633/1941 para prestadores de serviços da sociedade da informação em benefício dos editores para o uso online de publicações de natureza jornalística.
No entanto, lembra-se que a legitimidade desta norma está atualmente em exame pelo Tribunal de Justiça após o envio preliminar pelo TAR Lazio, seção IV, sentença 18790/2023, então definitivamente deve-se aguardar o resultado do julgamento antes de qualquer reflexão sobre a oportunidade de tal iniciativa.
Por fim, a Comissão lembra a importância de prever desde já a constituição de uma Autoridade de Supervisão, já prevista pelo AI Act, para supervisionar a aplicação do futuro Regulamento europeu, um órgão fundamental também para monitorar a aplicação de uma eventual lei nacional sobre a qual o governo está discutindo atualmente.
A Autoridade Nacional também deveria promover diretrizes comportamentais e incentivar a colaboração entre a indústria tecnológica e o empreendedorismo editorial, além de criar uma espécie de sandbox para projetos piloto de regulamentação da inteligência artificial. Também é enfatizada a necessidade de atualização profissional.
Como mencionado anteriormente, esperávamos mais. O Relatório não diz nada além do que já sabíamos, ou do que é previsto no AI Act ou em leis existentes.
Seria necessário um maior esforço criativo jurídico para oferecer ao governo ferramentas concretas sobre as quais refletir e construir algo verdadeiramente inovador para tornar a Itália um estado líder no campo da inteligência artificial, como proposto por nossa presidente do Conselho.
Se esse era o objetivo, ele ainda não foi alcançado.
FECHAR
Comunique à redação erros de português, de informação ou técnicos encontrados nesta página:
O que o relatório sobre inteligência artificial (não) diz. Artigo de Laura Turrini - Instituto Humanitas Unisinos - IHU