23 Mai 2025
Em seu livro Empire of AI: Dreams and Nightmares in Sam Altman’s Open AI, a jornalista Karen Hao, que pesquisa a OpenAI desde 2019, revela o lado oculto de uma indústria que reproduz mecanismos imperialistas para impor uma visão neocolonial da inteligência artificial.
A entrevista é de Mathilde Simon, publicada por Usbek & Rica, 21-05-2025. A tradução é do Cepat.
Quando Karen Hao atravessou as portas da OpenAI em 2019, o ChatGPT ainda era um protótipo desconhecido do grande público, e Sam Altman, um investidor tecno-otimista cujas façanhas eram conhecidas apenas pelos observadores mais atentos do Vale do Silício. Hoje, à frente de uma empresa próspera e conhecida, ele é um dos que projetaram a receita para a IA generativa como a conhecemos... e o modelo que lhe serve de suporte.
Um modelo pouco reluzente: acumulação dos recursos, exploração de trabalhadores precários, estratégia monopolista... Por trás de uma fachada filantrópica que exibe o desenvolvimento desinteressado de uma ferramenta benéfica para a humanidade, a OpenAI foi construída de acordo com um modelo colonial conhecido por todos, com a única intenção de gerar o máximo de renda. Esta é, em todo caso, a conclusão da jornalista Karen Hao, da MIT Technology Review e The Atlantic, em seu livro Empire of AI: Dreams and Nightmares in Sam Altman’s Open AI (Penguin Random House, 2025), uma síntese de anos de pesquisa sobre a OpenAI e Sam Altman.
Esses trabalhos não se limitam a observações made in Silicon Valley, já que a jornalista também fornece reportagens sobre os data centers que estão secando os recursos hídricos no Chile e sobre trabalhadores de dados quenianos e argentinos que tentam proteger sua saúde mental enfraquecida por anos filtrando os dados da internet antes de alimentar com eles a IA. Sacrifícios que não são, contudo, inevitáveis, ao contrário da ideia, defendida pelo Vale do Silício, de que esses “compromissos” onerosos são necessários para o progresso, impedindo assim a consideração de modelos alternativos de IA.
Na sua opinião, a OpenAI representa uma nova “ordem mundial colonial”, a do “colonialismo de dados”. O que você entende com isso?
A história do colonialismo europeu nos ensina que os impérios antigos tinham diversas características. Primeiro, eles se apropriaram de muitos recursos que não lhes pertenciam, mas criaram regras para fazer parecer que sim. Eles exploraram muita mão de obra mundo afora, sem pagar ou pagando muito pouco. Eles também competiram entre si, e disputavam critérios morais para saber quem tinha a versão mais benéfica para o futuro da humanidade.
Por fim, todos esses impérios também tinham uma missão civilizatória. Eles justificavam essa extração de recursos e exploração do trabalho alegando que isso beneficiaria a todos, faria a humanidade avançar em direção à modernidade e traria progresso para todos. Mas, em última análise, essa ordem mundial foi projetada principalmente para acumular cada vez mais riqueza, poder e recursos no topo, deixando outros países empobrecidos, com uma força de trabalho incapaz de contribuir para suas próprias economias.
Hoje, vemos os “impérios da IA” reproduzir uma lógica semelhante. Eles se apropriam de recursos que não lhes pertencem. Isso inclui os dados que as pessoas postam on-line todos os dias, sem nunca pretender que suas postagens sejam usadas para treinar os modelos de inteligência artificial. Isso inclui o trabalho de artistas que acreditavam que seus direitos de propriedade intelectual os protegeriam contra tal uso. E esses grandes players da IA, dos quais a OpenAI é a líder, também tentam redefinir as regras para fazer as pessoas acreditarem que esses recursos sempre lhes pertenceram.
Eles também exploram muita mão de obra: em todo o mundo, muitos trabalhadores digitais trabalham em pequenos escritórios virtuais isolados uns dos outros, em condições muito difíceis, para, em última análise, fortalecer e expandir o império.
Tudo isso é feito sob o disfarce de uma missão civilizatória e em uma competição onde fazem de conta que existem impérios do mal e impérios do bem, e que estes últimos precisam de todos esses recursos, de toda essa mão de obra para serem o número um.
Podemos traçar um paralelo com a história da Companhia Britânica das Índias Orientais. Inicialmente, era uma empresa que fazia um comércio econômico mutuamente benéfico com a Índia. Mas quanto mais influência econômica ganhou, mais influência política foi ganhando na Índia, até o ponto em que foi capaz de agir em seu próprio interesse sem quaisquer consequências. Assim, transformou-se em uma potência imperial, começou a travar guerras, a cobrar impostos, a controlar e a subjugar as populações do subcontinente indiano.
Você sugere que a OpenAI nasceu de uma genuína explosão de idealismo. Sam Altman ainda está convencido de que a IA geral é a melhor coisa que poderia acontecer à humanidade ou é apenas um verniz de marketing?
Não estou convencida de que ele tenha sido sincero, mas também não estou convencida do contrário. O certo é que hoje isso claramente não acontece mais. A OpenAI é uma das empresas mais capitalistas do mundo. Ela acaba de levantar US$ 40 bilhões em financiamento privado, o maior investimento de capital de risco na história da tecnologia. E ela acaba de ser avaliada em US$ 300 bilhões, uma das mais altas para uma empresa privada. Portanto, claramente, o idealismo original de uma organização sem fins lucrativos que deveria ser benéfica para a sociedade não existe mais. A história é implacável: os excessos do capitalismo muitas vezes ocorrem em detrimento da sociedade.
De acordo com muitos executivos da tecnologia que adotam a filosofia de longo prazo, é moralmente aceitável desenvolver tecnologias destrutivas se, a longo prazo, elas prometem beneficiar as gerações futuras. Diante da realidade de vidas e recursos destruídos para dar suporte ao uso da IA, a sociedade adotará essa mentalidade sacrificial?
Espero que, quando os usuários perceberem que o caminho seguido pelo Vale do Silício é realmente moralmente prejudicial, desenvolvamos ferramentas alternativas que não causem tantos danos em termos de trabalho, sociedade e economia.
Essas empresas são muito persuasivas em convencer as pessoas a entrar nesse mercado de tolos, em que elas desistem de tudo na esperança de receber algo em troca no futuro, como a cura do câncer, que é o que todos querem acreditar. Elas continuarão a usar essas narrativas para controlar e mascarar os custos e danos contínuos de seu desenvolvimento tecnológico.
Os dados sobre o número de trabalhadores de clique são escassos e pouco claros. O Banco Mundial estima que potencialmente existam centenas de milhões deles. Como tantas pessoas podem ser tão invisíveis?
Muitas multinacionais há muito aperfeiçoaram as táticas para a escolha de onde instalar os empregos menos reluzentes necessários para executar suas tecnologias, sabendo que haverá menos vigilância, seja por parte de jornalistas, defensores dos direitos humanos ou outras pessoas que documentam essas situações. Em um ecossistema de mídia internacional tão fragmentado como o nosso, é muito mais fácil para uma empresa estadunidense fazer algo em um país de língua espanhola e escondê-lo dos consumidores de língua inglesa. Elas também escolhem pessoas que têm medo de falar abertamente porque têm tão poucas oportunidades econômicas que não querem correr o risco de perder nem mesmo uma oportunidade muito precária.
Como é possível que esses trabalhadores sejam tão dependentes de uma economia tão emergente?
Na verdade, esses empregos não são tão novos. O crowdworking existe há duas décadas e, embora algumas especificidades se apliquem à IA generativa, muitos dos mecanismos vivenciados pelos trabalhadores são semelhantes: eles trabalham para uma plataforma sem rosto, não conhecem o cliente, realizam uma tarefa on-line com instruções detalhadas e são pagos em centavos por isso.
Esses trabalhadores dependem de qualquer trabalho disponível, pois muitos vivem em economias colapsadas. Um dos primeiros países a ver um aumento nesse tipo de trabalho foi a Venezuela, quando a indústria de IA se interessou por carros autônomos e precisava de trabalhadores digitais qualificados. O país estava passando pela pior crise econômica em tempos de paz em 50 anos, o que criou três condições: seus trabalhadores eram altamente qualificados porque nunca tinham passado pela crise antes, tinham conexão à internet e agora estavam dispostos a trabalhar a qualquer preço porque todos os empregos tinham desaparecido, e somente estes permaneceram.
As empresas fizeram deste modelo um manual. Durante a pandemia, quando muitas economias entraram em colapso, essas empresas recrutaram massivamente, de forma muito agressiva, em todas as regiões do mundo que passavam por grandes dificuldades: África Austral, Oriente Médio e Norte da África, Sudeste Asiático e outras partes da América Latina.
Os governos dos países que você visitou estão buscando proteger esses trabalhadores de dados? Eles conseguem, mesmo que queiram?
Na maioria das vezes, não. Por exemplo, o governo queniano está realmente entusiasmado. Eu me reuni com um grupo de trabalhadores terceirizados da OpenAI que estão tentando fazer uma petição ao governo queniano para que o trabalho digital e os danos psicológicos sejam reconhecidos como uma forma de lesão no trabalho, já que apenas danos físicos são reconhecidos por lá.
Mas o governo queniano sofre com seu próprio legado colonial, com uma economia fraca e, portanto, com pouca capacidade de criar empregos no país. Então, mesmo sabendo que alguns desses empregos podem ser prejudiciais, ele não quer se opor a essas empresas do Vale do Silício, com medo de que elas transfiram esses empregos para Uganda, por exemplo, sua vizinha. E esse não é um medo infundado, porque é assim que as empresas do Vale do Silício funcionam.
Esse modelo colonial alimenta uma visão de IA moldada por essas empresas. Como você explica o fato de que o resto do mundo está tentando reproduzir esse modelo em vez de explorar novos?
Hoje, quase todos os pesquisadores e desenvolvedores de IA trabalham nessas empresas, ao passo que há dez anos elas recorriam às universidades. As Big Tech estão dispostas a pagar salários milionários para atrair esses talentos e criar um monopólio, já que esse é um dos principais ativos para vencer a corrida. A consequência é que quase todos os pesquisadores de IA do mundo, seja na França, nos Estados Unidos, na China ou no Reino Unido, agora formam os quatro principais centros mundiais de pesquisa de IA.
A maioria desses centros agora enfrenta dificuldades financeiras, porque suas atividades de pesquisa e desenvolvimento atendem a interesses comerciais. Portanto, eles não são incentivados a trabalhar em outras áreas de desenvolvimento da IA. Se os outros tipos de desenvolvimento de IA têm sido tão pouco explorados é porque não são financiados e não há talentos independentes desses interesses comerciais.
Como seria uma IA decolonial, uma que não dependesse dessas mãozinhas para filtrar dados da internet?
A própria ideia de construir uma ferramenta universal para todos os habitantes do planeta é inerentemente colonial e imperialista. O primeiro passo para uma abordagem mais decolonial é estabelecer modelos locais, baseados na comunidade e construídos por meio de acordos coletivos.
Dou o exemplo de uma rádio comunitária maori na Nova Zelândia que queria revitalizar o idioma maori – que tinha sido dizimado pelo colonialismo – recuperando todos os arquivos que tinham e tornando-os facilmente acessíveis, transcrevendo-os e criando interfaces pedagógicas interativas permitindo que os estudantes maori ouvissem o áudio, consultassem o texto com as definições, as traduções, etc. Eles perceberam que não havia falantes maori suficientes no mundo para fazer esse tipo de transcrição e precisavam recorrer à IA.
Eles, então, criaram uma ferramenta de reconhecimento de voz, mas em cada estágio do desenvolvimento da IA, tiveram o cuidado de não consolidar ou redistribuir o poder: para a coleta de dados, mesmo antes de lançar o projeto, eles pediram o consentimento total da comunidade. Explicaram a todos como a IA funciona e que tipo de dados precisavam. Eles então garantiram que os seus data centers e servidores não seriam operados na nuvem. Compraram seus próprios chips para hospedar seus próprios servidores. Criaram uma licença estipulando que qualquer pessoa que desejasse acessar esses dados deveria assinar cláusulas juridicamente vinculativas quanto ao seu uso.
Dessa forma, garantiram que esses dados não cairiam nas mãos de pessoas que pudessem desenvolver projetos sem o consentimento da comunidade maori ou que pudessem desenvolver projetos que acabariam por prejudicá-los. No final, conseguiram criar esse modelo de reconhecimento de fala com poucos dados, um modelo muito compacto, sem nenhuma exploração de mão de obra em nenhum momento do processo e sem impacto ambiental significativo.
Você acredita, assim como o filósofo Luciano Floridi, que a IA é uma bolha prestes a estourar?
É obviamente uma bolha. É difícil dizer se a crise vai explodir imediatamente ou mais tarde, porque essas empresas e seus líderes são tão bons em perpetuá-la que poderiam mantê-la por um pouco mais de tempo. Mas ela é extremamente frágil. Assim como os impérios coloniais, os fundamentos dos impérios da IA dão a impressão de que suas atividades são inevitáveis e que é preciso entregar completamente o poder a eles. Mas se as pessoas parassem de fornecer seus dados, se parássemos de permitir que data centers fossem construídos em suas comunidades, se os investidores simplesmente parassem de financiar essas empresas, todo esse império entraria em colapso muito rapidamente.