Num recente relatório de investimento temático, os analistas do Barclays discutiram as exigências energéticas associadas à ascensão da tecnologia de inteligência artificial (IA), com especial destaque para o papel da NVIDIA (NASDAQ:) neste contexto.
Segundo analistas, a demanda energética projetada relacionada aos avanços em IA destaca um aspecto importante das perspectivas de mercado da NVIDIA.
De acordo com uma análise do Barclays, os data centers poderão consumir mais de 9% da atual demanda de eletricidade dos EUA até 2030, principalmente devido aos requisitos de energia da IA. Os analistas observam que “o poder da IA incorporado ao consenso da NVIDIA” é um dos principais fatores por trás desta previsão significativa de energia.
O relatório também observa que, embora a eficiência da IA continue a melhorar a cada nova geração de GPUs, o tamanho e a complexidade dos modelos de IA estão aumentando rapidamente. Por exemplo, o tamanho dos principais modelos linguísticos de grande escala (LLMs) está a aumentar aproximadamente 3,5 vezes por ano.
Apesar destas melhorias, espera-se que a procura global de energia aumente devido à expansão das aplicações de IA. Cada nova geração de GPUs, como as séries Hopper e Blackwell da NVIDIA, está se tornando mais eficiente em termos energéticos. Ainda assim, à medida que os modelos de IA se tornam maiores e mais complexos, requerem um poder computacional significativo.
“Modelos de linguagem em larga escala (LLMs) exigem enorme poder computacional para desempenho em tempo real. O consumo também aumenta”, diz o relatório. , inferimos a partir desses modelos. ”
“As organizações que procuram implementar o LLM para inferência em tempo real devem enfrentar estes desafios”, acrescentou o Barclays.
Para ilustrar a escala desta demanda de energia, o Barclays estima que alimentar aproximadamente 8 milhões de GPUs exigiria aproximadamente 14,5 gigawatts de energia, o que equivale a aproximadamente 110 terawatts-hora (TWh) de energia, estou prevendo. Esta previsão pressupõe uma taxa de ocupação média de 85%.
Aproximadamente 70% destas GPUs serão implementadas nos EUA até ao final de 2027, traduzindo-se em mais de 10 GW e 75 TWh de potência de IA e procura de energia apenas nos EUA durante os próximos três anos.
“A capitalização de mercado da NVIDIA sugere que este é apenas o começo da implantação da demanda de energia por IA”, disseram os analistas. Espera-se que o desenvolvimento contínuo e a implantação de GPUs pelos fabricantes de chips aumentem significativamente o consumo de energia nos data centers.
Além disso, a dependência dos data centers da energia da rede enfatiza a importância de atender às demandas de pico de energia. Os data centers operam continuamente e exigem fontes de alimentação balanceadas.
O relatório cita comentários notáveis do CEO da OpenAI, Sam Altman, no Fórum Econômico Mundial de Davos. Esta técnica requer energia. ”

