29 Março 2023
O auge de ferramentas como o ChatGPT dispara as previsões do consumo global de energia dos centros de processamento de dados, que pode se tornar cinco vezes maior.
A reportagem é de Manuel G. Pascual, publicada por El País, 23-03-2023. A tradução é do Cepat.
Ações cotidianas como consultar a melhor rota para chegar a algum lugar ou traduzir um texto demandam grandes quantidades de recursos energéticos, hidráulicos e minerais. Esses aplicativos funcionam na nuvem, um eufemismo para designar milhões de poderosos computadores organizados em extensos centros de processamento de dados. Para que os aplicativos do celular funcionem são necessárias legiões de computadores que armazenam trilhões de dados e realizam operações em frações de segundo (por exemplo, o cálculo de distâncias levando em conta o tráfego). Estima-se que o consumo de energia dos centros de processamento de dados represente de 1 a 2% do total mundial. Contudo, tudo indica que esses números vão disparar.
A inteligência artificial (IA) generativa, aquela que possibilita os chatbots inteligentes como o ChatGPT, bem como ferramentas que geram ilustrações originais ou música a partir de texto, precisa de muito poder de computação. As grandes empresas de tecnologia, com a Microsoft e o Google na liderança, decidiram integrar estas funcionalidades nos motores de busca, editores de texto e no e-mail. Nossa relação com os programas comumente usados vai mudar. Até agora, pressionávamos uma série de comandos para realizar determinadas atividades. Em pouco tempo, vamos nos deparar conversando com a máquina, pedindo-lhe tarefas que, antes, costumávamos fazer.
Que efeito essa mudança de paradigma terá para o meio ambiente? Ninguém sabe, mas todas as estimativas são para cima. “A IA pode parecer etérea, mas está moldando fisicamente o mundo”, diz Kate Crawford, em Atlas of AI. A australiana, pesquisadora principal da Microsoft Research e diretora do AI Now Institute, alertou, há dois anos, que os custos planetários associados a esta tecnologia não param de crescer. Alguns cientistas calculavam, há quatro anos, que o setor de tecnologia responderia por 14% das emissões globais até 2040; outros, que a demanda por energia dos centros de processamento de dados se multiplicará por 15 até 2030.
Todas essas previsões podem ser limitadas. São de antes da irrupção do ChatGPT. O Google e a Microsoft acumulam centenas de milhões de usuários. O que pode acontecer se todos começarem a usar ferramentas apoiadas em IA generativa? O canadense Martin Bouchard, cofundador do Qscale, acredita que será necessário ao menos quatro a cinco vezes mais potência computacional para cada busca.
Questionados sobre seus atuais níveis de consumo e suas previsões de crescimento na era da IA generativa, o Google e a Microsoft preferiram não fornecer a este jornal dados concretos, para além de reiterar sua intenção de alcançar a neutralidade de carbono até 2030. Para Crawford, isso “significa que compensam suas emissões comprando o crédito das pessoas” por meio de ações de maquiagem ambiental, como plantar árvores e outras ações semelhantes.
“A IA generativa produz mais emissões do que um motor de busca comum, que também consome muita energia, pois, afinal, são sistemas complexos que mergulham em milhões de páginas web”, diz Carlos Gómez Rodríguez, professor de Computação e Inteligência Artificial da Universidade da Corunha. “Mas, a IA gera ainda mais emissões do que os motores de busca, porque usa arquiteturas baseadas em redes neurais, com milhões de parâmetros que precisam ser treinados”.
Alguns anos atrás, a pegada de carbono da indústria informática alcançou a da aviação, quando estava em seu máximo. Treinar um modelo de processamento natural da linguagem equivale a tantas emissões quanto a que cinco carros movidos a gasolina emitirão ao longo de sua vida útil, incluindo o processo de fabricação, ou 125 voos de ida e volta entre Pequim e Nova York. Além das emissões, o consumo de recursos hídricos para a refrigeração dos sistemas (o Google gastou 15,8 bilhões de litros, em 2021, segundo um estudo da Nature, ao passo que a Microsoft declarou 3,6 bilhões de litros), bem como a dependência de metais raros para fabricar componentes eletrônicos, fazem da IA uma tecnologia com grandes repercussões para o meio ambiente.
Não existem dados sobre quanta energia e de que tipo são consumidas pelas grandes empresas de tecnologia, as únicas com uma infraestrutura robusta o suficiente para treinar e alimentar os grandes modelos de linguagem nos quais se apoia a IA generativa. Também não há números concretos sobre a quantidade de água que é utilizada para refrigerar os sistemas, questão que já está provocando tensões em países como Estados Unidos, Alemanha e Holanda.
As empresas não são obrigadas a fornecer essa informação. “O que temos são estimativas. Por exemplo, treinar o GPT3, o modelo no qual se baseia o ChatGPT, pode ter gerado cerca de 500 toneladas de carbono, o equivalente a ir e voltar da Lua de carro. Talvez não signifique muito, mas é necessário levar em conta que o modelo precisa ser retreinado periodicamente para incorporar dados atualizados”, afirma Gómez. A OpenAI acaba de apresentar outro modelo mais avançado, o GPT4. E a corrida vai continuar.
Outra estimativa diz que o consumo de energia da OpenAI, a empresa responsável pelo ChatGPT, em janeiro de 2023, pode equivaler ao consumo anual de cerca de 175.000 famílias dinamarquesas. “São projeções com os números atuais do ChatGPT. Caso seu uso passar a ser ainda mais generalizado, poderemos falar de um consumo de energia equivalente a milhões de pessoas”, acrescenta o professor.
Em breve, a obscuridade dos dados começará a desaparecer. A União Europeia está consciente do crescente consumo de energia dos centros de processamento de dados. Bruxelas tem uma normativa em andamento, que começará a ser discutida no ano que vem (e, portanto, levaria ao menos dois anos para entrar em vigor), que estabelece requisitos de eficiência e transparência energética. Os Estados Unidos trabalham em uma regulamentação semelhante.
“As emissões de carbono da IA podem ser decompostas em três fatores: a potência do hardware utilizado, a intensidade de carbono da fonte de energia que a alimenta e a energia utilizada no tempo de duração do treinamento do modelo”, explica Álex Hernández, pesquisador de pós-doutorado no Instituto de Inteligência Artificial de Quebec (MILA).
É no treinamento que se concentra a maior parte das emissões. Esse treinamento é um processo fundamental no desenvolvimento de modelos de aprendizagem automática, a modalidade de IA que mais cresceu nos últimos anos. Consiste em mostrar ao algoritmo milhões de exemplos que o ajudem a estabelecer padrões que permitam prever situações. No caso dos modelos de linguagem, por exemplo, trata-se de que caso veja as palavras “a Terra é” saiba que precisa dizer “redonda”.
A maioria dos centros de processamento de dados utiliza processadores avançados chamados GPU para realizar o treinamento dos modelos de IA. As GPUs precisam de muita energia para funcionar. O treinamento de grandes modelos de linguagem requer dezenas de milhares de GPUs, que precisam operar dia e note, durante semanas ou meses, segundo detalha um recente relatório da Morgan Stanley.
“Os grandes modelos de linguagem têm uma arquitetura muito grande. Um algoritmo de aprendizagem automática que ajude você a escolher a quem contratar, talvez necessite de 50 variáveis: onde se trabalha, que salário tem agora, experiência prévia etc. O ChatGPT tem mais de 175 bilhões de parâmetros”, ilustra Ana Valdivia, pesquisadora de pós-doutorado em computação e IA, no King's College London. “Você precisa retreinar todo esse tipo de estrutura e, além disso, alojar e explorar os dados com os quais trabalha. Esse armazenamento também tem um consumo”, acrescenta.
Hernández, do MILA, acaba de apresentar um artigo no qual analisa o consumo de energia de 95 modelos. “Há pouca variabilidade do hardware usado, mas se você treinar seu modelo em Quebec, onde a maior parte da energia é hidrelétrica, você reduz as emissões de carbono por um fator de 100 ou mais em relação a locais onde predominam carvão, gás ou outros”, enfatiza o pesquisador. Sabe-se que os centros de processamento de dados chineses são alimentados em 73% com energia gerada a carvão, o que resultou na emissão de pelo menos 100 milhões de toneladas de CO2, em 2018.
Dirigido por Yoshua Bengio, cuja contribuição nas redes neurais profundas lhe rendeu o Prêmio Turing (considerado o Prêmio Nobel da informática), o MILA desenvolveu uma ferramenta, o Code Carbon, capaz de medir a pegada de carbono daqueles que programam e treinam algoritmos. O objetivo é que os profissionais a integrem em seu código para saber o quanto emitem e que isso os ajude a tomar decisões.
Existe o problema adicional de que a capacidade de computação necessária para treinar os maiores modelos de IA duplica a cada três ou quatro meses. Foi o que já revelou, em 2018, um estudo da OpenAI, que também alertava que “vale a pena se preparar para quando os sistemas precisarem de capacidades muito maiores do que as atuais”. É uma velocidade muito superior à estabelecida pela Lei de Moore, segundo a qual o número de transistores (ou potência) dos microprocessadores duplica a cada dois anos.
“Levando em consideração os modelos que, atualmente, estão sendo treinados, sim, é necessária mais capacidade computacional para garantir o seu funcionamento. Certamente, as grandes empresas de tecnologia já estão comprando mais servidores”, prevê Gómez.
Para Hernández, as emissões derivadas do uso da IA são menos preocupantes por vários motivos. “Existem muitas pesquisas que visam reduzir o número de parâmetros e complexidade da energia que os modelos precisam, e isso vai melhorar. No entanto, não há muitas formas para reduzi-las no treinamento. Para isto, são necessárias semanas de uso intensivo. A primeira questão é relativamente simples de otimizar; a segunda, nem tanto”.
Uma das possíveis soluções para que os treinamentos sejam menos poluentes seria reduzir a complexidade dos algoritmos, sem perder a eficiência. “Realmente, é necessário tantos milhões de parâmetros para obter modelos que funcionem bem? O ChatGPT, por exemplo, demonstrou ter muitos vieses. A forma de alcançar os mesmos resultados com arquiteturas mais simples está sendo pesquisada”,
FECHAR
Comunique à redação erros de português, de informação ou técnicos encontrados nesta página:
O segredo sujo da inteligência artificial - Instituto Humanitas Unisinos - IHU