23 Abril 2025
Professor da UFRGS estuda como reduzir o custo energético da IA.
A reportagem é de Bettina Gehm, publicada por Sul21, 19-04-2025.
De tempos em tempos, a internet é invadida por uma nova trend envolvendo inteligência artificial. A última foi transformar fotos em desenhos no estilo Studio Ghibli através do ChatGPT. De um lado, havia pessoas compartilhando o resultado da transformação de suas próprias fotos; de outro, usuários das redes sociais alertavam para a grande quantidade de energia que demanda o uso das IA. Mas por que tantos recursos são necessários para que plataformas como o ChatGPT funcionem?
O Sul21 conversou com o professor da UFRGS Luigi Carro, um dos únicos pesquisadores – no mundo – focados em como reduzir a energia gasta pela inteligência artificial.
“Hoje em dia, todo mundo usa um ou outro tipo de CPU [Unidade Central de Processamento, ou Central Processing Unit, em inglês], não tem muita diversidade. É difícil inventar um novo hardware”, explica o professor. Hardware é a parte física do computador, enquanto os softwares são os programas nele instalados.
A pesquisa de Carro é justamente sobre como fazer otimizações de energia em softwares. “Como mudar de tal maneira o programa para o consumo de energia ser menor que o original”, resume. Atualmente, segundo o professor, o programa mais significativo em termos de consumo de energia é o da inteligência artificial.
“Um celular tem 4 CPUs dentro. Cada uma delas só é ligada quando precisa executar uma aplicação específica. É por isso que a bateria do celular dura o dia inteiro”, exemplifica Carro. “Com a IA é diferente. Eu faço uma pergunta, um grande conjunto de processadores tem que trabalhar ao mesmo tempo, o mais rápido possível, para responder”.
Para que a IA “aprenda” tudo que é necessário para responder perguntas e executar comandos, ela utiliza redes neurais, um modelo inspirado nas funções do cérebro humano. As conexões dentro dessa rede, para as aplicações em IA, são em grande número, e cada conexão possui um parâmetro, também conhecido como peso.
Os pesos representam a força da relação entre o que entra (a solicitação que o usuário faz à IA) e as previsões de saída (o que a IA responde). Estas ações podem ser representadas por operações em matrizes, com bilhões ou mesmo trilhões de elementos.
Carro explica que o ChatGPT, por exemplo, precisa de muitos pesos para fazer um raciocínio – 1,7 trilhão, aproximadamente. Na fase em que a IA é treinada, é repetido muitas vezes o processo de multiplicação dos pesos dentro da matriz.
Tudo isso é calculado pelo software. Como é de se imaginar, a memória para tantos cálculos não cabe num celular ou computador pessoal. Por isso, é preciso haver uma comunicação entre o dispositivo usado para acessar a IA e os data centers. Trata-se de instalações físicas que armazenam e processam dados. Todas as grandes empresas de tecnologia têm um ou mais.
É aí que entra o gasto de energia elétrica – nos data centers. De acordo com a Agência Internacional de Energia, a demanda por eletricidade de data centers aumentou nos últimos anos e espera-se que continue crescendo. Carro lembra que, em janeiro de 2023, o ChatGPT consumiu energia equivalente a uma cidade de 175 mil habitantes na Dinamarca.
Além disso, essas instalações precisam estar sempre refrigeradas, e o custo energético da refrigeração também é grande.
“Está todo mundo preocupado em fazer a IA funcionar, em como usá-la em todos os negócios possíveis. O consumo de energia não é uma preocupação agora, mas isso em breve vai nos incomodar”, alerta Carro.
Uma das alternativas para reduzir o impacto energético da inteligência artificial, segundo o professor Carro, é “reinventar os algoritmos”. Atualmente, o programa utiliza o modelo Large Language Model (“Grande Modelo de Linguagem”, ou LLM) para aprender a partir de enormes bases de dados. Para aplicações que usam programas como ChatGPT, por exemplo, é possível fazer algumas tarefas usando mais LLMs menores ao invés de uma LLM gigante e, com isso, reduzir a energia consumida na aplicação.
“A gente tem que inventar outras maneiras de fazer cálculos”, pontua o professor. “Se o Brasil crescer 3% ao ano durante vários anos, não vamos ter energia para alimentar o crescimento do país. Se colocar data center em tudo que é cidade, não vamos ter como alimentar esses data centers. É um problema de política pública”.
Deixar de usar a inteligência artificial não parece ser uma opção. Carro compara o uso dessa tecnologia com outras, bem mais ancestrais: “Não tem como parar de usar o fogo depois que se aprende. Você se acostuma ao calor, à comida cozida. É a mesma coisa com a IA: inventaram uma coisa tão potente, que vai facilitar a vida de tanta gente, que é impossível tirar. Ela não vai desaparecer. Temos que usar com mais inteligência, mas definitivamente iremos usar”.