Não há dúvidas de que a inteligência artificial foi o assunto do momento ao longo de todo o ano de 2023. No entanto, ao discutirmos sobre ferramentas de IA e LLMs (Large Language Modelo), frequentemente nos deparamos com a vasta quantidade de dados necessários para treinar essas tecnologias.
Contudo, um aspecto frequentemente negligenciado é o alto consumo energético. Por exemplo, o treinamento do ChatGPT, que opera em aproximadamente 10.000 GPUs da NVIDIA, demandou 1.287 megaWatt/hora de energia, o equivalente ao consumo anual de 121 residências. É justamente sobre isso que vamos falar nos próximos parágrafos.
Leia também
Getty Images lança sua própria ferramenta para gerar imagens por inteligência artificial
ChatGPT: inteligência artificial agora entende comandos de voz e imagens; mas apenas na versão mobile
A IA é faminta por energia elétrica
Obviamente que o progresso em IA e chatbots abre um leque de novas capacidades tecnológicas, desde cálculos complexos até automações nunca antes vistas, que têm o potencial de beneficiar a humanidade de diversas formas. Porém, um estudo recente na revista científica Joule alerta para a necessidade de considerar também os aspectos negativos, como o aumento do consumo de energia.
Em 2021, apenas a Google consumiu 18,3 TWh (TeraWatt/hora), sendo que entre 10% e 15% desse total foi atribuído à IA. Em um cenário mais extremo, considerando o uso de IA generativa como o Bard, a empresa poderia chegar a um consumo anual de 29,3 TWh, equivalente ao consumo energético da Irlanda, representando um aumento significativo em relação aos anos anteriores. Ou seja, o Google, sozinho, tem a capacidade de gastar tanta energia quanto um país inteiro!
Desde o lançamento do ChatGPT em 2022, houve um aumento expressivo na demanda por chips de IA. A NVIDIA, líder no mercado, registrou um faturamento de 16 bilhões de dólares no trimestre concluído em julho, com expectativas de crescimento contínuo. Isso tem incentivado empresas como Google e Amazon a desenvolverem seus próprios chips, e há rumores de que a Microsoft também esteja prestes a entrar nesse mercado, especialmente devido ao seu alto investimento na OpenAI.
Ainda não há uma solução definitiva para reduzir o consumo de energia das IAs
A integração de IA generativa em cada pesquisa realizada no mecanismo de busca da Google, por exemplo, elevaria drasticamente o consumo de energia. Estima-se que essa ação exigiria a operação de milhares de servidores, utilizando mais de 4 milhões de GPUs. Um único servidor NVIDIA A100 HGX consome 6,5 kW, o que resultaria em um consumo diário de 80 GWh ou 29,2 TWh anuais, de acordo com cálculos do blog SemiAnalysis e confirmados pelo estudo da Joule.
Alex de Vries, o autor do estudo, destaca que as ferramentas de IA passam por duas fases: treinamento e inferência. A fase de treinamento é a mais custosa em termos de energia, mas a fase de inferência, que é mais prolongada, pode acabar consumindo até 500 vezes mais energia, mesmo antes de ser disponibilizada ao usuário final.
De Vries conclui o estudo com um alerta à comunidade científica sobre a necessidade de focar também na fase de inferência das IAs em relação ao consumo energético. Embora avanços em hardware e software possam oferecer alguma economia, ele considera excessivamente otimista acreditar que essas melhorias seriam suficientes para reduzir significativamente o consumo de energia.
Iniciativas como as do MIT já conseguiram diminuir o consumo energético de modelos de IA em até 15% ao impor limitações nas GPUs, mas isso pode não ser suficiente. De Vries sugere ainda a reutilização de GPUs antigas, anteriormente usadas em mineração de criptomoedas, como uma estratégia de economia.
Fontes: Joule e SemiAnalysis
Deixe seu comentário