14 Junho 2025
"Resta apenas nos colocarmos na fronteira e criar o consenso mínimo necessário para operar na direção do bem coletivo e do bem comum. Isso também faz parte de uma ética de fronteira: reconhecer que a vantagem dos indivíduos não pode ser separada de uma vantagem integral para o sistema do país", escreve Paolo Benanti, em artigo publicado por Il Sole 24 Ore, 12-06-2025.
Paolo Benanti, frei franciscano da Terceira Ordem Regular, professor da Pontifícia Universidade Gregoriana e acadêmico da Pontifícia Academia para a Vida. Em português, é autor de Oráculos: Entre ética e governança dos algoritmos (Unisinos, 2020).
Nos últimos anos, a inteligência artificial vem passando por uma transformação significativa: do modelo de aprendizagem tradicional baseado exclusivamente em dados gerados por humanos, ela está gradualmente se movendo para formas de aprendizagem autônoma, nas quais a IA adquire habilidades por meio da experiência direta e da interação com o ambiente, seja real ou simulado. O sucesso da IA generativa (como grandes modelos linguísticos) tem sido baseado no treinamento em enormes quantidades de dados produzidos por pessoas: artigos, livros, conversas, imagens e vídeos. Essa abordagem levou à criação de sistemas versáteis capazes de resolver múltiplas tarefas, mas tem limitações estruturais. Em particular, em alguns campos (por exemplo, matemática avançada ou ciência computacional), o conhecimento humano disponível está atingindo um limiar de saturação: simplesmente adicionando novos dados humanos, o desempenho dos modelos não melhora mais substancialmente. Para superar essas limitações, a pesquisa está se concentrando em modelos capazes de aprender com a experiência, ou seja, por meio da interação ativa com ambientes complexos. Nesse paradigma, a IA não simplesmente “absorve” dados passivamente, mas age, experimenta, recebe feedback e adapta suas estratégias com base nos resultados obtidos.
Mas, nesse nível, uma perspectiva de fronteira como a que caracteriza esse espaço nos leva a reconhecer que uma maior autonomia acarreta riscos significativos. O aprendizado por reforço, embora eficiente, principalmente após algumas observações recentes, parece refinar as capacidades existentes sem, de fato, expandir a capacidade criativa de resolução de problemas de um modelo.
[Devemos finalmente] fazer outra consideração de fronteira. Esse impulso para a constituição ética da IA, necessário devido ao poder de novos modelos, parece, de fato, empurrar “naturalmente” para algo que se situa entre um padrão técnico e uma regulamentação. Nesse contexto, considerando a dificuldade que essa abordagem apresenta tanto para um contexto hipercompetitivo como o dos EUA quanto para a resistência à delegação de atividades de baixo para cima que possuem sistemas monolíticos como os chineses, nosso país pode oferecer um ecossistema interessante: a tradição cooperativa ou de sindicatos industriais que veem a presença de organismos intermediários de cooperação, a presença de infraestruturas computacionais públicas como as do Cineca, pode fazer a diferença. Resta apenas nos colocarmos na fronteira e criar o consenso mínimo necessário para operar na direção do bem coletivo e do bem comum. Isso também faz parte de uma ética de fronteira: reconhecer que a vantagem dos indivíduos não pode ser separada de uma vantagem integral para o sistema do país.