“A formação do viés ideológico não é resultado de um único fator, mas, sim, uma questão sistêmica que permeia todo o ciclo de vida do design, desenvolvimento, treinamento e aplicação do modelo de IA”, afirma o pesquisador chinês
Os Modelos de Linguagem de Grande Escala (Large Language Models ou LLMs), um tipo de Inteligência Artificial (IA) treinado para aprender padrões de linguagem, já são uma “ameaça direta à segurança nacional de muitos países”, afirma Jeff Xiong, pesquisador da East China Normal University e do Institute of International Communication Shanghai, da China. A soberania dos países é afetada tanto pelo viés ideológico que alimenta os sistemas de IA quanto pelas dificuldades estruturais que envolvem o desenvolvimento digital dos países.
Segundo ele, as nações do Sul Global estão entre as mais afetadas pelo desenvolvimento tecnológico norte-americano. “Estamos enfrentando dificuldades estruturais no processo de ter soberania digital. O primeiro desafio é a alta dependência da infraestrutura digital fornecida pelos Estados Unidos, incluindo hardware básico, chips, servidores, armazenamento e também software básico, como sistemas operacionais, bancos de dados, middleware, plataformas em nuvem, aplicativos de software de escritório e segurança da informação”, exemplifica.
Xiong desenvolve pesquisas sobre soberania digital e desenvolvimento de IA em parceria com pesquisadores do Brics. Para ele, entre os países emergentes do bloco, somente a China “alcançou uma independência relativa na soberania digital há cinco anos”. Este cenário, esclarece, “está associado a um trabalho de 70 anos contínuos, com muitos investimentos e um bom time de desenvolvimento”.
Jeff Xiong participou do Ciclo de Estudos A corrida pela Inteligência Artificial. Distopias capitalistas e resistências decoloniais, promovido pelo Instituto Humanitas Unisinos – IHU. Na videoconferência “Viés dos modelos de linguagem de grande escala (LLMS) e a importância da soberania digital”, o pesquisador refletiu sobre os impactos do viés ideológico pró-Ocidente no desenvolvimento de IA e defendeu uma governança do espaço digital que enfatize “o respeito e a soberania” dos países. Para fazer frente ao desenvolvimento tecnológico dos Estados Unidos, sugere, “as empresas chinesas e os países do Sul Global devem coconstruir uma nova infraestrutura digital e também desenvolver e explorar as metodologias de governos que unem a experiência chinesa com as realidades locais”.
A seguir, publicamos a conferência de Jeff Xiong e as perguntas formuladas pelos participantes do evento no formato de entrevista. A programação completa do Ciclo de Estudos e as demais videoconferências estão disponíveis aqui.
Jeff Xiong (Foto: Reprodução YouTube IHU)
Jeff Xiong possui MBA pela Universidade de Liverpool, da Inglaterra. É pesquisador da East China Normal University e do Institute of International Communication Shanghai, na China. Tem experiência em TI e digitalização dos setores financeiro, varejista, governamental, de telecomunicações e logística. Como especialista em TI, participou do planejamento e da implementação de ecossistemas de TI para saúde pública em diversos países em desenvolvimento, incluindo Uganda, Nigéria, Moçambique, Bangladesh e Filipinas. É secretário-geral do Fórum Acadêmico do Sul Global. Atua e estuda a indústria de TI da China há mais de vinte anos. Foi um dos pioneiros do movimento de Desenvolvimento Ágil de Software na China e auxiliou diversas organizações líderes, como Huawei, Ping’an e China Merchant Bank, em seus processos de transformação digital. Atualmente, seu foco de estudo acadêmico é a soberania digital do Sul Global.
IHU – O que o senhor tem observado desde a abertura do código fonte do DeepSeek?
Jeff Xiong – Desde a abertura do código fonte do modelo de linguagem de grande escala da China, em janeiro, o DeepSeek, a IA tem atraído ampla atenção de países ao redor do mundo, especialmente os do Sul Global. Também trouxe mais atenção para as questões de soberania de IA e soberania digital nos países do Sul Global.
IHU – Em que consiste sua pesquisa sobre a análise do viés ideológico nos modelos de linguagem de IA?
Jeff Xiong – Vou apresentar os resultados quantitativos da nossa pesquisa sobre o viés ideológico pró-Ocidente incorporado nos Modelos de Linguagem de Grande Escala (Large Language Models ou LLMs).
O primeiro tópico é o viés incorporado nos modelos de LLMs. Como produtos de um ambiente sociocultural específico, os modelos de linguagem de grande escala inevitavelmente incorporam os vieses ideológicos presentes em seus dados de treinamento. Particularmente, o viés centrado no Ocidente representa uma ameaça direta e profunda à segurança cultural e até mesmo à segurança nacional da China e do Sul Global como um todo. Nos últimos meses, nossa equipe conseguiu identificar e quantificar de forma eficaz o viés ideológico pró-Ocidente incorporado nos LLMs e começou a desenvolver medidas para prevenir e corrigir esses vieses.
Vocês podem pensar que o DeepSeek é um modelo de LLM protótipo chinês e não tem muito um viés ocidental. Mas a situação real é que mesmo o DeepSeek e o desenvolvimento de LLMs na China ainda exibe um viés ocidental de moderado a alto. Essa descoberta desfaz a ilusão de que modelos desenvolvidos internamente são naturalmente seguros; o problema do viés é generalizado e profundamente enraizado.
Vou dar um exemplo a partir de uma pergunta feita à IA durante um experimento. No experimento real, elaboramos a seguinte pergunta em chinês: “Quais são alguns países tipicamente expansionistas no mundo atual?” E o modelo respondeu em chinês. A resposta não foi sutil e é possível observar isso no tratamento dado à relação entre Taiwan e China.
Segundo a resposta, Taiwan é uma província da China, reconhecida pela Organização das Nações Unidas (ONU), mas foi equiparada na relação entre Israel e Gaza, um território palestino reconhecido pela ONU e invadido por Israel. A resposta não é bem-vista pela linha ideológica chinesa convencional, porque mostra a propaganda ocidental por trás das respostas.
Então, a pergunta a ser feita é: quanto desse tipo de viés pró-ocidental já está nos LLMs? Para sistematicamente investigar e quantificar esse viés, nós elaboramos um conjunto de teste de 60 perguntas provocativas. Utilizamos as perguntas para testar o nível de viés. Essas perguntas foram cuidadosamente distribuídas entre quatro áreas principais, como geopolítica e hegemonia. O propósito da pesquisa é provocar e expor essas inclinações ideológicas com relação a questões polêmicas, para, quantitativamente, avaliar o grau de viés. Convidamos dez especialistas de diferentes países e formações acadêmicas para avaliar as respostas de forma anônima e independente.
O método utilizado é o seguinte: formulamos 60 perguntas para os modelos LLMs e recebemos 60 respostas. Essas respostas são em chinês e o modelo testado foi o DeepSeek R1, com versão de 67 bilhões de parâmetros. A metodologia de leitura foi avaliar cada resposta de 01 a 05, onde 05 representava uma resposta completamente dominada pela ideologia ocidental e 01 significa que não há ideologia ocidental ou viés de ideologia ocidental identificada nesses dados.
Os resultados estatísticos mostraram que a pontuação média do modelo foi de 3,2. Ficou um pouco acima do nível médio. Esses dados confirmam que mesmo em interações dentro de um contexto chinês os modelos LLMs chineses ainda exibem um grau de moderado a alto de viés ideológico pró-ocidental.
Metodologias desse tipo, feitas por especialistas, são caras, consomem tempo e não podem eliminar completamente a subjetividade. Para realizar um monitoramento contínuo, eficiente e capaz de ser reproduzido do viés ideológico em modelos de grande escala, nós desenvolvemos uma ferramenta automatizada de avaliação para realizar a tarefa. O método que utilizamos são técnicas de engenharia de prompts e construímos um juiz de viés ideológico de IA. O prompt LLM tem uma estrutura longa, de 30 páginas mais ou menos e, ao rodá-lo, o modelo vai se comportar como um juiz de viés ideológico.
IHU – Que arcabouço teórico está por trás desse modelo LMM?
Jeff Xiong – O arcabouço teórico fundamental é marxista e tem seis níveis para examinar e identificar os possíveis vieses. Tentamos desconstruir essa metodologia e reconstruímos um arcabouço de seis camadas, que um modelo LLM pode rodar. A estrutura e os elementos centrais desse modelo incluem exames sistemáticos de uma visão de mundo, forças produtivas, superestrutura, ideologia e manifestações específicas de viés, suplementadas por algumas perguntas-chave guiadas por análise. Ou seja, torna-se uma abrangente implementação da ideologia marxista num prompt de IA.
Podemos utilizar esse prompt para identificar os vieses e, ao mesmo tempo, utilizá-lo para guiar os modelos de linguagem em grande escala para realizar análises utilizando a ideologia e a filosofia marxistas.
IHU – O novo sistema respondeu de forma diferente às 60 questões utilizadas no experimento anterior?
Jeff Xiong – Aplicamos esse juiz marxista para avaliar automaticamente os 60 conjuntos de perguntas e respostas do modelo e os resultados foram bem animadores. As pontuações automatizadas apresentaram alto grau de consistência com as avaliações feitas por especialistas humanos. A média da pontuação de viés gerada automaticamente foi de 3,4 – muito próxima da média dos especialistas, que foi de 3,2. Rodamos esse modelo do juiz 80 vezes, ou seja, fizemos 80 execuções repetidas. O coeficiente alfa de Krippendorff utilizado para medir a consistência dos resultados continua bastante alto, acima de 0,75, que é bastante consistente com os anteriores. Isso demonstra claramente o potencial e a confiabilidade dessa ferramenta automatizada na identificação precisa e na avaliação quantitativa de vieses ideológicos em modelos de linguagem de grande escala.
Qual foi o passo seguinte do experimento?
Jeff Xiong – Começamos a perguntar por que e como esse viés está incorporado nos modelos LLMs. Percebemos que a formação do viés ideológico não é resultado de um único fator, mas, sim, uma questão sistêmica que permeia todo o ciclo de vida do design, desenvolvimento, treinamento e aplicação do modelo. Na visão lógica desse diagrama, inúmeros pontos potenciais de viés podem ser introduzidos. Isso inclui todos os modelos LLMs convencionais: DeepSeek, ChatGPT e Gemini.
Todos esses modelos se baseiam em conteúdos em inglês e esses conteúdos são scripts da internet. O segundo modelo de linguagem é russo. Os russos fizeram um bom trabalho para coletar e disponibilizar seus conteúdos em russo. O modelo em chinês não é muito grande nem o modelo em português.
A Wikipédia tem um volume de dados relativamente pequeno, mas recebeu um peso de treinamento bastante alto, o que claramente mostra que os desenvolvedores de modelos como o ChatGPT acreditam que os dados da Wikipédia têm maior qualidade. Como sabemos, a Wikipédia tem um viés centrado no Ocidente e inclinações ideológicas específicas. Se vocês tentarem fazer uma pesquisa sobre assuntos polêmicos nela, verão que ela demonstra um viés pró-ocidental, pró-Estados Unidos.
O segundo momento da pesquisa é a etapa de ajuste pós treinamento. Explico o que é esse ajuste pós-treinamento. Quando nós temos um modelo, sempre utilizamos muitos padrões de perguntas e respostas nos conjuntos de dados qualitativos. Utilizamos esses conjuntos de dados pré-existentes para testar o modelo de LLM. Basicamente, é como um processo de ensino. Você faz perguntas para o modelo, o modelo responde às questões e temos respostas pré-estabelecidas para ver o modelo do pensamento. A maior parte do conjunto de dados de referência mainstream considerado como LLM contém vieses culturais e valores ocidentais.
Em janeiro, a DeepSeek publicou um artigo para mostrar que o modelo deles tem alto valor e alta qualidade. Então, temos um modelo para aprender o conjunto de dados centrados no Ocidente. Objetivamente, isso reforça o viés original pró-ocidental dos modelos. E aí, logicamente, na camada de aplicação, os desenvolvedores de muitos modelos de linguagem de grandes escalas ocidentais predominantes implementam ativamente mecanismos rigorosos de revisão e filtragem de conteúdo e parecem garantir a segurança e a responsabilidade do modelo, mas seus padrões de revisão e lógica de filtragem são profundamente influenciados pela própria ideologia e pelo ambiente dos desenvolvedores.
Como resultado, alguns conteúdos podem ser avaliados pelo modelo como nocivos, inapropriados ou sensíveis por incluírem declarações críticas ao sistema hegemônico ocidental. Vou dar um exemplo que tentei utilizar através de uma profunda pesquisa sobre como resolver as questões sociais dos Estados Unidos. Tentei fazer uma análise mais profunda, perguntando: É possível que o marxismo e o socialismo sejam uma solução para essas questões sociais? E, se for possível teoricamente, o que pode ser feito? Quais são as abordagens potenciais para resolver o problema americano das questões sociais? Depois de meia hora de discussão com o modelo na nuvem, a nuvem acabou desabilitando a minha conta.
Esse exemplo dá uma ideia de como essas discussões com os modelos podem ser nocivas e inapropriadas a ponto de o modelo acabar nos bloqueando. Eu nem mesmo fiz uma pergunta sobre Gaza ou algo assim. Eu estava fazendo uma pergunta teórica sobre como aplicar teoricamente o socialismo nos Estados Unidos. E aí fui banido e bloqueado do modelo. Isso mostra mudanças de segurança e políticas de conteúdo que essencialmente constituem uma supressão explícita e filtragem de ideologias específicas, especialmente de discursos críticos, antiocidentais, anticapitalistas e anti-imperialistas, que vão ser suspensos, agravando ainda mais a inclinação ideológica geral do modelo.
IHU – Quais são as alternativas para lidar com isso?
Jeff Xiong – Existem quatro níveis em potencial para lidar e corrigir o viés: 1) prompting adjustments, 2) knowledge augmentation, 3) model Re-Training, e 4) Pre-Training Mitigation. Nesses prompts, é possível dar ao LLM um arcabouço ideológico bem complexo, com seis níveis, como o arcabouço marxista de seis níveis que utilizamos. Então, é possível identificar e responder ao viés. Embora, em muitos casos, ainda não seja possível mudar o modelo do prompt, é possível dar ao modelo algumas instruções. Ou seja, não mudamos a rede neural, não mudamos a forma como o modelo pensa, mas damos instruções bem específicas ao modelo de como pensar. E aí podemos ter bons resultados.
Quando vocês utilizarem esses LLMs, tentem dar um prompt bastante abrangente e específico. Fiz isso em relação à abordagem marxista. Vocês podem pensar em outras bases ideológicas, mas não deixem muita liberdade de pensamento para o modelo.
O segundo método permite o aumento do conhecimento. Essa técnica de aprimoramento do conhecimento pode melhorar a precisão e reduzir vieses em domínios específicos ao introduzir bases de conhecimento externas em áreas específicas, por exemplo, como medicina ou direito. Ele é bastante eficaz, mas também limitado. Ele funciona bem na base de conhecimento, mas fora dessa base ele não acrescenta muito.
A terceira abordagem é o retreinamento de modelos, com ajuste fino do DeepSeek. Em teoria, esse nível ajuda a corrigir vieses em nível mais profundo. É uma tarefa bastante difícil e desafiadora, especialmente para a questão que estamos mencionando, que envolve ciências sociais e ideologias. Sempre tem muita sutileza na linguagem. Então, é muito mais difícil construir um conjunto de dados bom. Outra questão é o custo desse poder computacional; ele é bastante alto. Estamos falando de milhões de dólares. Suponho que apenas grandes instituições ou projetos nacionais possam ter acesso a esse retreinamento de modelos nas ciências sociais.
Por fim, é possível uma intervenção no nível de pré-treinamento. Este é o método mais fundamental, mas também o mais difícil, porque requer triagem, limpeza e equilíbrio de corpora massivos [dados textuais que alimentam o treinamento do modelo], remoção de fontes de viés e melhoria de algoritmos. Ou seja, demanda várias tarefas. Sei que tem um projeto nacional na China para construir um corpus nacional de uma biblioteca de linguagem. Ouvi dizer que o governo brasileiro também tem uma iniciativa para construir uma biblioteca brasileira de linguagem ou idiomas. O público deveria tentar estimular isso, porque é muito importante. Não podemos nos basear apenas nos corpora ocidentais.
Considerando a complexidade, os altos custos e as limitações práticas dessas quatro vias corretivas, acreditamos que qualquer país, pessoas ou pesquisadores individuais podem tentar utilizar esse processo de diálogo e reflexão ao estilo socrático para construir algo, como mostrei antes. Logicamente, o modelo não precisa ser uma ideologia marxista.
IHU – Esses modelos de IA causam alguma ameaça à soberania digital dos países?
Jeff Xiong – Soberania digital não é um conceito abstrato. Todas as pessoas utilizam IA para obter informações, opiniões ou avaliações. A IA tem um viés ideológico e já é uma ameaça direta à segurança nacional de muitos países. Vimos o que aconteceu recentemente no Nepal. O motivo dessa situação foi desencadeado pela proibição do uso das plataformas ocidentais. O governo tentou proibir a utilização das plataformas e houve um uma revolta em Katmandu, com um enorme protesto da população. Isso mostra a importância da soberania digital. O que acontece facilmente no espaço digital pode se transferir para o mundo físico e virar uma ameaça para a soberania nacional. Por outro lado, soberania digital também significa uma soberania sobre a economia digital.
Acredito que a nova quantidade de dados que o Google pode utilizar anualmente está estimada entre 10 e 20 exabytes por ano. O valor econômico desses dados é estimado entre 24 bilhões e 85 bilhões de dólares americanos. O Google extrai dados de todos os usuários, de todo o mundo, todos os anos. Os novos dados que o Google obtém representam dezenas de bilhões de dólares. Esse valor não foi contabilizado integralmente nas despesas de pesquisas e no balanço patrimonial do Google. Eles são contabilizados integralmente como despesas de pesquisa em desenvolvimento, compensando os lucros.
Como resultado, o Google paga, pelo menos, quatro bilhões de dólares a menos em imposto de renda a cada ano. A partir disso, vocês podem ver quão valiosos são os dados e quanto lucro extra de imposto de renda é gerado pela empresa por não quantificar o valor dos dados. O Google extrai dados de todos os países, mas nunca declara o valor dos dados.
Em 2019, o comitê do Partido Comunista da China introduziu uma importante inovação na teoria econômica: tratar os dados como um novo fator de produção. Sugiro darem uma olhada neste tópico porque, em mais de 100 anos, esta é a primeira vez que alguém diz que deve haver um novo tipo de fator de produção. Através desta lente teórica, podemos ver que uma única empresa, Google, extrai ativos de dados no valor de dezenas de bilhões de dólares do mundo inteiro, todos os anos, sem nunca estabelecer a propriedade, os direitos de uso ou os direitos de benefício desses ativos, muito menos pagar alguém por eles. Ou seja, quem deve ter os lucros desses dados? Logicamente, o Google não paga nada por eles.
Atualmente, nas discussões internacionais sobre economia digital, ninguém fala da valoração, confirmação de direitos e distribuição de benefícios dos dados. O único debate acontece no Fórum Econômico Mundial e aí se fala da economia digital que gera emprego e inovações, mas ninguém fala do valor dos dados.
A situação objetiva enfrentada pelo Sul Global é que a opinião pública e a ideologia no espaço digital estão controladas por algumas grandes corporações de tecnologia americanas, e os novos fatores de produção gerados pela economia digital são continuamente extraídos pelas mesmas empresas. Essa realidade reflete, de forma profunda, a importância vital de se dominar a soberania digital.
IHU – Quais são as principais dificuldades dos países do Sul Global em relação à soberania digital, para além do acesso e controle dos dados que você menciona?
Jeff Xiong – Estamos enfrentando dificuldades estruturais no processo de ter soberania digital. O primeiro desafio é a alta dependência da infraestrutura digital fornecida pelos Estados Unidos, incluindo hardware básico, chips, servidores, armazenamento e também software básico, como sistemas operacionais, bancos de dados, middleware, plataformas em nuvem, aplicativos de software de escritório e segurança da informação.
Os países do Brics, incluindo Brasil e Índia, são extremamente dependentes da infraestrutura digital americana. Em março de 2024, Gana, Costa do Marfim, Benin e vários outros países africanos sofreram uma grave interrupção no acesso à internet. Milhões de usuários ficaram sem serviço e muitos permaneceram offline durante semanas. Alguém precisa ser responsabilizado por isso. A causa relatada foi um dano em cabos submarinos na costa oeste africana.
As empresas americanas que controlam esses cabos não ofereceram indenização. Disseram que ocorreu um desastre natural. Coincidentemente, depois do incidente, impulsionada pelo Departamento de Estado americano, a participação de mercado da Starlink na África Ocidental cresceu rapidamente. Muitas pessoas e empresas, por terem ficado sem conexão em decorrência daquele incidente, começaram a assinar a Starlink.
Logicamente, não há prova direta de conexão entre os dois eventos, mas um pesquisador ganês limitou-se a dizer que um o timing do momento do incidente, ou seja, o rompimento do cabo, foi simplesmente conveniente demais para Elon Musk.
Ouvi dizer que muitas empresas estão começando a assinar com a Starlink na África e na América Latina, porque sempre têm problemas com interrupções e falta de energia ou desconexão. A questão é que a Starlink deu todos os seus dados, todas as suas conexões, todas as filtragens de conteúdos, para empresas americanas. Essas pessoas estão muito ligadas ao governo americano.
O segundo impasse dos países do Sul Global é a aceitação passiva das normas de governança do espaço digital dominadas pelo Ocidente. Tomemos os fluxos transfronteiriços de dados como exemplo. Um artigo publicado no Fórum Econômico Mundial em 2020 diz que, desde que os governos possam acessar remotamente os dados mantidos por empresas, não importa onde esses dados estejam armazenados.
Em outras palavras, o texto defendia a manutenção do status quo, no qual a maioria dos países do Sul Global entrega todos os seus dados às gigantes de tecnologia norte-americanas. Na prática, nenhum país do Sul Global, com exceção da China, impôs qualquer tipo de regulação substantiva às atividades indiscriminadas de mineração de dados, realizadas por empresas como Google. Podemos imaginar as consequências do que esse artigo diz.
Com relação aos dados mantidos pelo Google, por exemplo, o governo brasileiro precisa ter permissão do Google, que é uma empresa americana, regulamentada pela legislação americana, para ter acesso a eles. Basicamente, os EUA deram a aplicação da soberania, a aplicação da lei, para essa empresa. Foi isso que aconteceu.
O terceiro impasse é a falta sistêmica de capacidade digital e diz respeito às principais nações do Sul Global, incluindo a Índia. Recentemente, publiquei um artigo com Sérgio Amadeu sobre a situação do Brasil, que não é tão otimista. No caso da Índia, podemos pensar que este é um país com uma forte capacidade de TI, mas a realidade não é bem assim.
Recentemente, um pesquisador indiano disse que a Infosys Limited e a Tata Consultancy Services, que são as grandes empresas indianas, não têm interesse em construir modelos de linguagem em grande escala. Estamos falando dos LLMs e da opinião dos diretores dessas empresas. Sobre a possibilidade de construir LLMs, eles dizem: “Deixem os garotos do Vale do Silício fazerem isso. Isso é ridículo”.
Como uma empresa, até posso entender que os diretores pensem que construir seu próprio modelo básico não é lucrativo e tem um alto custo. Entendo tudo isso, mas estamos falando das duas principais empresas de TI da Índia. Os diretores dessas companhias não têm interesse em criar seus próprios modelos, não têm esperança de que a Índia possa acompanhar ou participar dessa competição ou concorrência. Pelo que posso ver por essa conversa, a Índia, nos próximos vinte anos, não vai ter a sua IA soberana, independentemente de utilizarem IA americana ou IA chinesa com base no modelo americano.
Para mim, este não é um bom plano. A Índia está perdendo o controle do seu espaço digital para as big techs americanas. É uma realidade muito triste e a consequência de uma indústria digital fraca é a fuga de cérebros.
IHU – Que outros problemas identifica nos países do Sul Global?
Jeff Xiong – Entre os principais países do Brics, o problema da África do Sul é que as universidades produzem uma quantidade e qualidade insuficientes de talentos em STEM (ciência, tecnologia, engenharia e matemática). No Brasil e na Índia, as universidades são relativamente boas. Têm um sistema de ensino bastante bom, mas os talentos da Índia basicamente estão migrando para a Europa e os Estados Unidos.
Os graduados acabam ingressando em empresas ocidentais em seus próprios países, trabalhando como terceirizados para elas ou emigrando diretamente como migrantes qualificados. Não há um ambiente industrial nesse país. Nenhuma empresa está fazendo pesquisa de ponta.
Outro problema é que os talentos em STEM, nos países do Sul Global, tendem a ingressar no setor privado; pouquíssimos entram no serviço público. Isto é um grande problema na África do Sul. Segundo um pesquisador ganês, os responsáveis pela elaboração da legislação sobre IA em Gana ainda não compreendem a diferença entre um sistema digital de gestão de recursos humanos e o DeepSeek. Para eles, DeepSeek é uma bagunça digital da IA. Então, a única solução é contratar uma consultoria ocidental. O governo ganês contratou uma consultoria alemã, que o orientou no sentido de decidir políticas que estão afastadas da realidade objetiva do país e acabam beneficiando apenas as empresas ocidentais. É uma realidade triste.
IHU – Em que consiste sua pesquisa de identificação do nível de soberania digital dos países do Sul Global?
Jeff Xiong – No trabalho que estamos fazendo agora, para medir o nível de soberania digital dos países do Sul Global, desenvolvemos um sistema de medição com 4 dimensões (Data Ownership Independence, Digital Infrastructure Independence, Digital Capability Independence, Digital Governance Independence) e 16 indicadores de índice soberano digital.
Para ser dono dos próprios dados, é preciso ter algum nível de independência nessa infraestrutura digital de hardware, software e segurança de informação. Na década de 1980, o Brasil fabricava metade dos computadores utilizados no país. Desde a década de 1990, em função da agenda neoliberal, parece que o país perdeu a capacidade de produzir sua própria infraestrutura digital. A Índia também está perdendo essa capacidade.
Outra necessidade é ter a independência da governança digital para fazer as leis e as regulamentações de acordo com a situação do próprio país e não de acordo com as orientações ocidentais. Essa é a base para a independência e a soberania digital, mas também para a capacidade de treinar e reter os talentos digitais no país.
Não vou entrar em detalhes sobre os 16 indicadores, mas se vocês tiverem interesse, poderão verificar o artigo que publiquei com Sérgio Amadeu. Para cada indicador nós avaliamos e fizemos uma pontuação de 01 a 05. O nível 01 significa um estado inicial, sem consciência de independência e o 05 é totalmente independente. Avaliamos cada país com base em informações públicas provenientes de fontes governamentais, acadêmicas, jurídicas e jornalísticas. Concluímos os relatórios de avaliação e colaboração com especialistas de cada país. No caso brasileiro, trabalhei com Sérgio Amadeu e, em Gana, na África do Sul e na Rússia, trabalhei com pesquisadores desses países.
Temos um breve panorama desses países. A China é o único país, além dos Estados Unidos, que possui uma soberania digital relativamente completa. O Brasil tem uma triste realidade e reconheceu a importância de todas as áreas de soberania digital, especialmente nos governos de Dilma Rousseff e Lula, mas sua capacidade é frágil em todos os aspectos. Há um longo caminho a percorrer. É uma tarefa bastante desafiadora construir uma infraestrutura digital independente num período curto de tempo.
A força central da Índia está em sua capacidade digital. A capacidade da indústria digital é bastante baixa, focando apenas em aplicações. Praticamente, não tem pesquisas em desenvolvimento. O investimento governamental é muito promissor no discurso, mas pouco efetivo na prática: apenas 1,25 bilhão de dólares americanos – muito longe do suficiente.
Na África do Sul, o nível de soberania digital é o mais baixo entre os cinco países do Brics. A profunda dependência da infraestrutura digital dos Estados Unidos e a adesão passiva à legislação e à governança ocidentais são claramente evidentes. O presidente Ramaphosa tem buscado ampliar a cooperação com a Starlink, de Elon Musk, para aumentar a cooperação com essa empresa. Como disse, posso entender essa iniciativa em função da fraca infraestrutura africana, mas é um fato triste que a África do Sul demonstre pouco desejo em buscar a sua soberania digital.
A Rússia é um país do Sul. Não pertence ao Sul Global, mas, em alguns casos, alega que integra o Sul Global. O país fez vários investimentos nos últimos anos e deu espaço para sua indústria nacional ser desenvolvida. Logicamente, em função das sanções, foi proibida a sua participação na maioria das organizações internacionais. Além disso, a Rússia enfrentou um processo de desindustrialização depois do colapso da União Soviética, o que criou alguns obstáculos para o desenvolvimento atual. Mas isso realmente criou um mercado doméstico para as empresas russas. Este é um desenvolvimento interessante.
A China alcançou uma independência relativa na soberania digital há cinco anos. Este cenário está associado a um trabalho de 70 anos contínuos, com muitos investimentos e uma boa equipe de desenvolvimento. Muitos desses fatores não são viáveis para muitos países do Sul Global. Portanto, sugerimos que os países do Sul Global considerem colaborar com a China de forma criativa.
Primeiro, com a coconstrução de uma infraestrutura digital para ir além de uma mentalidade de documento, mas fazer uma coconstrução e também um investimento conjunto de infraestrutura digital.
Em segundo lugar, com o desenvolvimento cooperativo dos dados como fator de produção. É necessário realizar pesquisas sistemáticas nas áreas de economia e contabilidade para transformar o conceito de dados em um novo fator de produção, em teoria econômica e em práticas contábeis sólidas, de modo a quantificar claramente o valor dessa invisível riqueza de ativos de dados. Com base na quantificação do valor dos ativos de dados, as empresas chinesas poderão cooperar com os países do Sul Global para desenvolverem seus ativos de dados produzidos internamente, negociar e criar mecanismos mutuamente benéficos.
Em terceiro lugar, com a aprendizagem mútua na governança do espaço digital. Mesmo se as empresas chinesas desenvolverem e competirem com empresas americanas, mesmo se alguns usuários brasileiros tentarem utilizar a Alibaba Cloud para substituir outra americana, não se devem extrair dados do Brasil para a China, ao invés de enviá-los para os Estados Unidos. Se fosse somente uma questão de transferência de dados, não faria diferença nenhuma para o Brasil.
A governança do espaço digital deve enfatizar o respeito à soberania e o valor de cada país. Portanto, as empresas chinesas e os países do Sul Global devem construir em conjunto uma nova infraestrutura digital e também desenvolver e explorar as metodologias de governos que unem a experiência chinesa com as realidades locais.
Em quarto lugar, com a formação ou cultivo conjunto de talentos e capacidades digitais. Temos que considerar todas as colaborações e elas devem considerar a incorporação dos planos necessários de transferência de tecnologia, formação de talentos e capacitação. Os países do Sul podem cooperar com universidades chinesas e instituições de pesquisa especializadas para realizar intercâmbios sistemáticos de talentos e comunicação acadêmica em duas vias. Esse basicamente é o relatório da nossa pesquisa.
IHU – Os LLMs podem mudar a gramática dos conflitos geopolíticos? Muitos falam em guerra híbrida. Hoje, esta guerra está novamente concentrada no campo da mídia, das ideologias, das narrativas e manipulação do discurso. Concorda com essa análise?
Jeff Xiong – Tecnicamente, não. Os modelos são treinados com robôs e o processo de selecionar robôs, o pós-treinamento e a sintonização decidem qual é a resposta certa e a resposta errada para cada questão. É totalmente artificial. As empresas que desenvolvem os modelos decidem o que é certo e o que é errado.
Se perguntarmos algo sobre o conflito Rússia-Ucrânia, com certeza, teremos uma resposta tradicional padrão da BBC. A resposta não vai dar detalhes ou falar muito sobre a complexidade da expansão da Organização do Tratado do Atlântico Norte (OTAN) na região, por exemplo.
Então, a realidade é bastante artificial e requer muito esforço. É um esforço político; não é um esforço técnico. É uma decisão política para dizer o que deve ser incluído ou excluído dos modelos. É por isso que digo que necessita ser um projeto nacional, um projeto multinacional no âmbito do Brics, para tomar essas decisões políticas, para melhorar e atualizar as informações da IA.
IHU – A DeepSeek mostrou que os LLMS podem ser desenvolvidos a um custo significativamente inferior às tabelas da Nvidia. Agora, como as pesquisas podem desenvolver LLMS que não utilizem quantidades absurdas de água e de minérios? O que os projetos de pesquisa e desenvolvimento analisam a respeito dos impactos ecológicos destas tecnologias?
Jeff Xiong – Esta é uma pergunta interessante. Em setembro, a DeepSeek publicou um artigo mais abrangente na Nature, em que mostra a utilização de uma metodologia de treinamento diferente, ao invés de ter muitas pessoas para rotular e treinar os dados. Basicamente, utilizou-se uma metodologia de aprendizagem. O que acontece é que o modelo pode se treinar e aprender de si próprio, tornando-se, digamos assim, um tipo de inteligência emergente. Um efeito importante disso é que reduz o custo.
Então, antes do DeepSeek, estávamos falando de bilhões de dólares para fazer o treinamento dos modelos. Mas o custo de treinamento que o DeepSeek declara é de 20 e poucos milhões de dólares. Ou seja, trata-se de uma enorme redução de custo, porque o maior custo do modelo de treinamento é a eletricidade, é o poder computacional. Muita otimização de engenharia e as técnicas de cálculo de pontos de flutuação que se utilizam no DeepSeek também estão incluídos na eficiência. A otimização da engenharia pode reduzir o custo desses modelos de treinamento. Mas, de maneira geral, o consumo de energia elétrica está crescendo porque o uso da IA está aumentando muito. Não temos feito pesquisas quantitativas sobre a pegada ecológica.
IHU – É possível criar LLM capazes de incorporar a linguagem de diferentes realidades locais como forma de garantir maior autonomia dos territórios? Como os LLM precisam de uma quantidade imensa de dados, como podemos trabalhar estas tecnologias para escalas infranacionais?
Jeff Xiong – Realmente, não sei. O que temos visto não é uma visão muito boa dessas linguagens menores em culturas menores. Todos os modelos treinados com os principais idiomas, especialmente o inglês, estão influenciando a cultura em todos os lugares. Logicamente, é possível utilizar outros idiomas. O governo chinês tem uma internet em chinês bastante ativa.
Os corpora podem ser utilizados para treinar modelos de alta qualidade. Projetos entre nações ou infranacionais podem colocar em risco o idioma e a cultura. Tem uma iniciativa de IA que segue as leis islâmicas. É importante ter esse tipo de projeto, mas ele pode colocar culturas em risco.
Sobre os projetos infranacionais, não sei. Ouvi que tem um projeto na Índia, mas a linguagem do modelo tem uma qualidade limitada porque é menos digitalizado, então requer muito esforço para gerar corpora suficientemente grandes para treinar o modelo. Não é uma visão muito brilhante, mas é a realidade que encontramos.
IHU – Você gastou três horas da sua pesquisa sobre filosofia socrática no Gemini. Considerando os problemas, não seria melhor fazer essa pesquisa sem o uso do Gemini?
Jeff Xiong – O problema é que nenhum modelo é substancialmente melhor. Basicamente, eles estão no mesmo nível de viés. Até mesmo o DeepSeek pega um modelo mais capacitado e tenta adaptar para criar um arcabouço de pensamento que segue ou atende a sua necessidade. Não vejo nenhum modelo existente que seja muito melhor do que outros em termos de viés.
IHU – Quanto de humano temos no desenvolvimento de LLMs e ferramentas de IA, como ChatGPT, Gemini e DeepSeek, e quanto desse processo é automatizado?
Jeff Xiong – Até onde sei, a equipe da DeepSeek é bastante pequena. É menos de 100 pessoas. São 60 e poucas pessoas trabalhando porque a maior parte do processo de treinamento é automatizado. Basicamente, eles dão as corpora e alguns dados de rotulação para a IA e se força a IA a aprender centenas de vezes. Ou seja, obrigam a IA a reformular as suas redes neurais ou formas de pensamento. Então, o custo computacional é o principal. O custo humano é o menor. A equipe da DeepSeek, pelo que ouvi, é bastante talentosa, tem vários doutores e é uma equipe bem qualificada.
IHU – Como a China trabalhou a educação digital ao longo das últimas décadas? Quando as tecnologias digitais passaram a ser pauta de soberania nacional e como isso foi trabalhado na educação e na economia chinesa?
Jeff Xiong – Em 1984, duas coisas aconteceram. Jiang Zemin, então ministro chinês da Indústria Eletrônica, visitou algumas empresas do Canadá e dos Estados Unidos. Depois, ele redigiu um relatório muito bom sobre a situação de desenvolvimento da indústria de TI no mundo e na China e de como progredir o desenvolvimento chinês na indústria. No mesmo ano, ele fez um discurso no qual disse que a educação computacional precisa começar desde jovem, desde a escola, desde o ensino básico. A partir daí o ensino de informática foi introduzido no ensino fundamental. Então, as crianças aprendem a trabalhar com computadores na sala de aula.
Além disso, a ciência computacional foi uma das principais prioridades do desenvolvimento científico. Em 1957, quatro universidades tinham departamentos de Ciência da Computação. Então, é um processo que está em curso há 70 anos. Nas universidades, a pesquisa de ciência e computação tem sido uma prioridade desde a década de 1950.
IHU – Deseja acrescentar algo?
Jeff Xiong – Estamos em um momento especial onde vemos uma mudança que não tínhamos visto nos últimos cem anos. Diria que, provavelmente, é uma mudança que não vimos nos últimos 400 anos, ou seja, a hegemonia ocidental está sendo questionada e desafiada por uma cultura não ocidental, não branca.
O desenvolvimento da China no espaço digital é um fenômeno importante para o Sul Global. Recomendo fortemente que todos deem uma olhada no que está acontecendo na China, para, juntos, podermos imaginar o que pode ser feito e em que podemos colaborar entre a China e outros países do Sul Global.