A expansão da IA está a sobrecarregar a rede elétrica, 7 lógicas de investimento em energia que você deve conhecer

Autor: Joseph Ayoub

Compilação: TechFlow

Introdução da TechFlow: Todos estão a discutir o poder de computação e os modelos, mas este artigo levanta uma questão mais fundamental: será que a oferta de energia acompanha? O Morgan Stanley prevê que, em 2028, os EUA enfrentarão uma falta de 45GW de eletricidade, enquanto o tempo de entrega de transformadores grandes já chega a 24 a 36 meses, e o consumo de energia dos centros de dados de IA cresce 15% anualmente. O autor deduz assim 7 lógicas de investimento, desde a divisão da rede elétrica até os transformadores sólidos e o resfriamento de duas fases, com ângulos pouco convencionais, mas cruciais.

O texto completo é o seguinte:

A Nvidia lançou recentemente o quadro “A IA é um bolo de cinco camadas”. Hoje, vou argumentar que a camada de energia é a restrição vinculativa para o crescimento inteligente e explorar suas consequências.

O progresso da civilização humana é o resultado da nossa capacidade de dominar ferramentas - sejam martelos, fogo, cavalos, impressoras, telefones, lâmpadas, máquinas a vapor, rádios, ou IA. Essas “ferramentas” são a maneira pela qual a humanidade transforma energia em produtividade.

Fundamentalmente, é através da captura de energia e da utilização de ferramentas para direcioná-la a um objetivo que aumentamos a produtividade humana.

Em resumo, a lógica central do progresso da civilização humana é a seguinte:

Durante a maior parte da história humana, as pessoas confiaram na energia corporal e nas mãos como ferramentas para avançar em seus objetivos, seja na agricultura ou na escrita. A impressora é um caso típico de como a energia e as ferramentas progrediram em sinergia - popularizada por Gutenberg em 1440. Antes dessa inovação, a humanidade consumia sua própria energia, escrevendo informações à mão com uma caneta (ferramenta), o que era extremamente ineficiente. A impressora inovou novas ferramentas, aumentando drasticamente a eficiência do uso da energia humana através da impressão mecânica de texto, resultando em um aumento de produtividade de várias ordens de magnitude. No entanto, de 1450 a 1800, quase 350 anos passaram sem inovações substanciais na impressora. Somente quando a humanidade dominou uma energia mais poderosa - o carvão - é que a equação do lado da energia mudou. Em 1814, Friedrich Koenig inventou a impressora a vapor, adaptando a impressora à inovação energética dominante da época - o carvão, aumentando a eficiência em 5 vezes. Desde então, a impressora continuou a se adaptar eficientemente a novas energias, com a produção aumentando de 250 cópias por hora para 30.000 cópias 50 anos depois, e hoje alcançando milhões de cópias.

Assim, a constante inovação de novas ferramentas, a superação das fronteiras do domínio da energia, e o aumento da eficiência das novas ferramentas em relação à energia disponível - esse processo contínuo persiste até hoje. Hoje, a inteligência é nossa nova forma de produtividade, e a energia é seu combustível. A chave é se conseguiremos continuar a promover o crescimento inteligente, que depende de quanto de energia sustentável e confiável conseguimos produzir para impulsionar as ferramentas (GPU) e direcioná-las a um objetivo (inteligência).

Este tema valida a Escala de Kardashev - que mede o nível de progresso tecnológico de uma civilização pela quantidade de energia que pode dominar, desde planetas até estrelas, galáxias, o universo e multiversos. A quantidade de energia que conseguimos dominar marca o quão longe progredimos como civilização. Historicamente, esta regra sempre se aplicou, e o futuro não será uma exceção. A capacidade de dominar a energia é fundamental para o avanço da civilização.

O ponto central deste artigo é: a demanda por energia está rapidamente superando a oferta, o que representa o principal gargalo para o progresso inteligente. Vou explorar os impactos de primeiro e segundo nível dessa afirmação.

Por que a oferta de energia está desacelerando?

A fissão nuclear foi descoberta em 1939, sendo a última grande transformação no campo da energia desde o surgimento da civilização humana. No entanto, devido ao acidente de Chernobyl e ao compromisso global de transitar da energia nuclear para as energias renováveis, desde 1950 houve um descompasso claro entre a inovação em ferramentas e o progresso energético. Em 1950, a produção global de energia era de 2600GW, e hoje é de 19000GW (um crescimento de 7,3 vezes). Isso parece um salto, mas esse crescimento linear progressivo está longe de corresponder ao crescimento da computação moderna e da tecnologia, e mal supera o crescimento populacional de 3,5 vezes no mesmo período.

Em contraste, o intervalo entre as inovações em ferramentas está diminuindo. A primeira impressora levou 364 anos até sua próxima grande melhoria, a primeira viagem de avião até a viagem espacial levou 58 anos, o primeiro microprocessador até a internet levou 20 anos, enquanto hoje os grandes saltos de GPU ocorrem a cada 2 anos. Vivemos num período de aceleração constante na melhoria da eficiência das ferramentas, onde múltiplas inovações se sobrepõem em ciclos cada vez mais rápidos. Desde a IA até a criptografia e a computação quântica, a velocidade com que novas inovações são descobertas está aumentando, assim como o progresso em eficiência - essa é a lei dos retornos acelerados.

Atualmente, os centros de dados consomem 1,5% da eletricidade global, e espera-se que cheguem a 3% até 2030 - um percurso que levou 50 anos à máquina a vapor a ser completado em 6 anos. A diferença chave entre a revolução industrial e a atual explosão inteligente é que a revolução industrial construiu sua própria oferta de energia simultaneamente ao crescimento da demanda - minas de carvão, canais, ferrovias e as máquinas que as consumiam cresceram em sincronia. Cada revolução energética anterior estabeleceu sua própria cadeia de suprimentos enquanto expandia. A IA herda uma cadeia de suprimentos já existente, que começou a se romper.

A rede elétrica simplesmente não está preparada para lidar com um crescimento de 15% na demanda de eletricidade a cada ano da explosão inteligente, enquanto a demanda por eletricidade nos EUA teve quase crescimento zero na última década. Fissuras já começaram a aparecer nos EUA: a fila de conexão à rede elétrica atingiu um recorde histórico, e o tempo médio de entrega de transformadores grandes já chega a 24 a 36 meses, com uma falta de 30% prevista para transformadores elétricos em 2025. O Morgan Stanley estima que, apenas nos EUA, até 2028 haverá uma falta de 45GW de eletricidade, equivalente à demanda elétrica de 33 milhões de lares americanos. Acredito que essa falta pode ser muito maior.

A questão é clara: a humanidade precisa expandir radicalmente sua escala de energia para acompanhar as inovações em IA, robótica, veículos autônomos e outros campos.

A iminente falta de energia: impactos de primeiro e segundo nível

As consequências da iminente falta de energia são historicamente significativas: com a demanda por energia disparando e a oferta insuficiente, podemos ver o surgimento de um mercado de energia quase privatizado.

Os provedores de serviços em nuvem de grande escala (Hyperscalers) já começaram a construir instalações de geração de eletricidade atrás do medidor (BTM) e planejam expandir para centros de dados movidos a energia nuclear, uma tendência que já começou a se manifestar. Acredito que essa tendência se tornará cada vez mais evidente.

A seguir, apresento 7 argumentos, todos derivados da explosão inteligente e seu impacto na oferta de eletricidade em tensão contínua.

Argumento um: divisão da rede elétrica - a computação migrará para a energia, e não o contrário

Em regiões próximas à demanda de raciocínio, jurisdições com abundância de energia e regulamentações flexíveis obterão um valor desproporcional à medida que o sistema energético se fragmenta.

Quando a demanda por energia começa a superar a oferta, a eletricidade tornará-se politicamente sensível. As famílias têm direitos de voto, mas os centros de dados não. Em uma falta de energia, é improvável que a rede elétrica mantenha uma posição neutra, mas sim priorizará a demanda elétrica residencial em detrimento da demanda elétrica industrial através de preços, restrições de acesso ou limites suaves.

Dado que a computação é extremamente sensível a latências, tempos de atividade e confiabilidade, operar em jurisdições que priorizam a eletricidade residencial é simplesmente inviável. À medida que o acesso à rede elétrica se torna instável ou politizado, as cargas de trabalho de computação migrarão para o modelo de geração BTM, onde a eletricidade pode ser garantida, controlada e precificada diretamente.

Isso impulsionará uma transformação estrutural: a computação migrará para economias com abundância de energia e regulamentações flexíveis. Os vencedores serão aqueles capazes de integrar terra, interconexão, geração de energia e fibra ótica em sistemas implantáveis e replicáveis, e as jurisdições onde esses sistemas estão localizados também se beneficiarão.

Argumento dois: a energia torna-se uma barreira competitiva, a geração BTM torna-se a capacidade central que distingue os provedores de computação

Na minha opinião, este é o impacto de primeiro nível mais crítico da crescente falta de energia. Em um mundo onde a demanda por energia supera a oferta, garantir eletricidade confiável e barata é uma vantagem estrutural que cresce com o tempo. Além disso, a prioridade dos centros de dados na ocupação da eletricidade da rede é insustentável politicamente, e isso é precisamente a trajetória atual da energia. A crescente tensão na rede elétrica do país forçará os provedores de computação a construir sua própria eletricidade, e os provedores de serviços em nuvem de grande escala já estão começando essa tendência. Infraestruturas sem geração BTM serão eliminadas diretamente.

Essencialmente, as empresas que possuem eletricidade vencerão, enquanto as que alugam eletricidade perderão. Sem geração BTM, os provedores de computação enfrentarão problemas de confiabilidade de eletricidade (fatais), aumento de custos e restrições de consumo. As REITs puramente de hospedagem sem geração própria (como Equinix, Digital Realty) verão seu valor diminuir em relação aos operadores verticalmente integrados. As empresas que combinam geração de energia e hospedagem de computação estão construindo a barreira mais profunda (Crusoe, Iren e alguns provedores de serviços em nuvem de grande escala). Isso pode ser expresso em termos de negociação de alta e baixa, mas eu prefiro enfatizar os vencedores da integração vertical.

Argumento três: a padronização BTM gera inovações - de transformadores tradicionais a transformadores sólidos, de dispositivos de comutação tradicionais a dispositivos de comutação digitais

Os transformadores tradicionais elevam ou reduzem a tensão da eletricidade da rede de corrente alternada. Devido ao seu tamanho e materiais, o tempo de entrega já chega a 24 a 36 meses, com uma falta de 30%. Eles também são uma tecnologia do século 19, fabricados manualmente em torno de materiais limitados. O ponto crucial é que cada megawatt de geração BTM deve ser convertido, regulado e distribuído para o ponto de computação, e os transformadores não têm nenhuma forma de contornar isso.

Os transformadores sólidos substituíram tudo isso por dispositivos eletrônicos de potência de alta frequência. Eles são menores, mais rápidos e completamente controláveis, realizando conversão AC-DC, regulação de tensão e corrente bidirecional dentro de uma única unidade. A fabricação também é mais simples, dependendo de semicondutores de potência de carbeto de silício/nitreto de gálio, em vez de enormes bobinas de cobre e tanques de óleo. À medida que o BTM se torna a arquitetura padrão, o equipamento entre energia e computação torna-se o gargalo, e esse equipamento é o transformador sólido (SST).

Os dispositivos de comutação também enfrentam um atraso de 80 semanas, sendo a camada de controle entre geração e carga, responsável por rotear eletricidade, isolar falhas e proteger sistemas. Assim como os transformadores, os dispositivos de comutação também são produtos intensivos em mão de obra, fabricados em torno de materiais limitados, e não mudaram muito desde a década de 1980.

Os dispositivos de comutação digitais substituíram tudo isso por dispositivos eletrônicos de potência sólidos. Eles são mais rápidos, programáveis e completamente controláveis, permitindo detecção de falhas em tempo real, isolamento remoto e roteamento dinâmico de carga. Igualmente importante, eles se expandem como produtos eletrônicos, e não como equipamentos industriais.

Uma nota de rodapé sobre o cobre: Eu tenho uma visão construtiva sobre o cobre. O cobre é a autoestrada da eletrônica e será a principal commodity necessária em um mundo cada vez mais eletrificado. No entanto, a forma como essa transação é expressa é sutil - as mineradoras tradicionais como transação têm margens baixas e podem ser comprimidas ao longo do tempo. Mas no lado de produtos acabados onde o cobre é insubstituível e tem prazos limitados, há gargalos significativos e espaço para acumulação de valor no futuro. Fabricantes de cabos como Prysmian e Nexans estão vendendo restrições de produtos acabados, e não matérias-primas, e à medida que os prazos de entrega dos transformadores aumentam drasticamente, isso já não é mais um mercado de commodities.

Argumento quatro: o custo de carbono da IA torna-se cada vez mais difícil de sustentar politicamente, forçando soluções baseadas em energia solar e baterias

A construção de IA tem um problema de carbono que ainda não foi precificado, e isso é uma restrição política. Os centros de dados elevam os preços da eletricidade, consomem grandes quantidades de água e aumentam as emissões locais. Isso já se refletiu: projetos de centros de dados no valor de 18 bilhões de dólares foram completamente cancelados, e projetos no valor de 46 bilhões de dólares foram adiados.

Atualmente, cerca de 56% da eletricidade dos centros de dados vem de combustíveis fósseis. O gás natural resolve o problema da rapidez na implantação, mas é politicamente frágil. À medida que a demanda aumenta, a resistência à expansão de combustíveis fósseis cresce, forçando a formação recente de um sistema misto de gás natural, energia nuclear e energias renováveis.

Embora o gás natural tenha servido como uma ponte de curto prazo no crescimento explosivo dos centros de dados, em uma dimensão de tempo mais longa, a abundância de energia não é resolvida pela extração de combustíveis, mas sim pela captura de energia. A energia que o sol entrega à Terra é várias ordens de magnitude maior do que o que a humanidade consome. A restrição não está na disponibilidade, mas na conversão, armazenamento e implantação.

A energia solar não é uma solução imediata para a demanda de energia de computação, mas sim a solução definitiva.

A energia solar comercial atual captura cerca de 22% da energia incidente. Cada ponto de eficiência de conversão que aumenta reduz o custo por megawatt, aproximando a energia solar do preço da geração de eletricidade programável no sistema BTM.

O armazenamento em baterias torna-se um componente central desta arquitetura. Não apenas para suavizar a intermitência, mas também como uma camada de receita. A arbitragem de armazenamento e o balanceamento de carga transformarão centros de custo históricos em contribuintes para o lucro dos operadores BTM.

Neste argumento, os vencedores são as empresas verticalmente integradas que cobrem captura, armazenamento e distribuição: desenvolvedores de energia solar especializados com contratos BTM, fabricantes de baterias com produtos em escala de rede e de site, e alguns poucos operadores capazes de combinar geração própria com hospedagem de computação.

A energia solar é um jogo de aquisição e fabricação, as baterias são a camada de restrição e monetização, integrando lucros de captura, enquanto tecnologias de ponta ainda são opções e não o cenário básico. Nesse aspecto, a Tesla pode continuar a ser uma grande vencedora, mas eu prefiro limitar a escolha a ativos não consensuais.

Argumento cinco: o resfriamento torna-se uma restrição de primeiro nível, o resfriamento líquido direto de duas fases (D2C) tornará-se essencial em aplicações de ponta

Outra consequência é a ascensão da tecnologia de resfriamento líquido direto de duas fases. Para ser honesto, este argumento também reflete meu próprio julgamento: a densidade de potência dos chips está crescendo em uma trajetória parabólica, o que representa um problema termodinâmico cada vez mais complicado. O resfriamento a ar tradicional é insustentável por várias razões, sendo a principal que não funciona em chips de maior densidade, além dos problemas ambientais relacionados ao consumo de água e eletricidade.

Primeiramente, o resfriamento D2C avança a densidade e o desempenho sem as limitações da gestão térmica - essa é a questão chave para a expansão. A realidade atual do mercado é que o resfriamento de uma fase domina, pois é mais simples: a água fria circula através de placas frias para resfriar os chips, mas tem um limite conhecido. Quando a densidade de potência do chip ultrapassar 1500W, a transição para o resfriamento de duas fases se tornará inevitável. O resfriamento de duas fases bombeia líquidos dielétricos ao redor do chip, projetados para ferver a baixa temperatura - a mudança de fase de líquido para gás melhora drasticamente a eficiência de resfriamento.

O resfriamento de duas fases pode reduzir o consumo de energia em 20% e o uso de água em 48%. Esse aumento de desempenho permite pacotes de chips mais densos, melhorando o desempenho e gerando uma demanda maior por resfriamento de alto desempenho.

A empresa líder em DTC de duas fases, Zutacore, demonstrou o uso de líquidos dielétricos (em vez de água) para resfriamento D2C de duas fases, reduzindo o consumo de energia em 82% e eliminando completamente o uso de água - esse resultado foi validado por pesquisas da Vertiv e Intel. Zutacore é um operador privado a ser observado nesse campo e, além disso, um estudo mais aprofundado sobre fornecedores de líquidos dielétricos também pode ser valioso.

Argumento seis: a energia nuclear pode servir como uma ponte para a abundância de energia e fornecimento estável, mas não é a resposta de longo prazo para a expansão de energia

Ao escrever este artigo, inicialmente pensei que a energia nuclear seria uma boa forma de preencher a lacuna de energia a curto prazo. A realidade é que o custo de implantação de reatores modulares pequenos (SMR) é de 5 a 10 vezes o dos sistemas de gás natural (10.000 a 15.000 dólares por quilowatt), o que torna impossível a implantação e expansão em grande escala.

A energia nuclear resolve problemas de confiabilidade, mas não de velocidade ou custo - especialmente em instalações BTM. Isso permite fornecer eletricidade de carga base estável e programável em situações onde a confiabilidade não é negociável. Portanto, a energia nuclear tem seu papel na lacuna de energia, como uma ponte, e não como fornecimento central.

A energia nuclear é limitada pelo ciclo de combustível e pelo tempo de construção. Os reatores avançados de hoje necessitam de urânio de baixa concentração e alta abundância (HALEU), e esse combustível praticamente não tem oferta comercial hoje. Mesmo que o reator seja construído, a capacidade de fornecer combustível torna-se a restrição chave na velocidade de expansão da energia nuclear.

Portanto, a energia nuclear é improvável que se torne a solução marginal para a expansão de energia - é lenta para entrar no mercado, intensiva em capital e limitada pela infraestrutura e pelo combustível. Em contraste, os sistemas que se expandem mais rapidamente - a curto prazo, o gás natural; a longo prazo, a energia solar e o armazenamento - são as opções para reduzir a diferença.

O gargalo para investimento não são os reatores, mas o combustível. À medida que a demanda por SMR aumenta, a concentração de urânio altamente enriquecido se tornará um elo crítico - um gargalo que não está relacionado a um tipo específico de reator; não importa qual design vença, o valor se acumulará aqui.

Argumento sete: está surgindo uma nova categoria de grupos de infraestrutura energética; os integradores verticais transformarão eletricidade em capacidade computacional

O gargalo da infraestrutura de IA não está apenas na energia, mas na capacidade de transformar energia em computação utilizável em grande escala.

Na década de 1970, assim como a eletricidade, o petróleo não era escasso, mas havia problemas de refino e distribuição. Rockefeller construiu uma empresa através da integração vertical da extração de petróleo bruto, refino e distribuição para lares, tornando-se uma das maiores empresas da história (Standard Oil).

A revolução inteligente segue o mesmo padrão; a eletricidade é como o petróleo. A eletricidade é abundante, mas a capacidade de transformar eletricidade em capacidade computacional de forma confiável enfrenta restrições em entrega, resfriamento, conexão e licenciamento. O refino eletrônico é onde reside o valor. Cada camada adicional de propriedade aumenta a confiabilidade, reduz os custos e cria espaço para lucros, fazendo a integração vertical se auto-sustentar.

As grandes empresas são a camada de distribuição deste sistema e o ponto final do consumo computacional. No entanto, a oportunidade estrutural está na infraestrutura que os distribuidores são forçados a comprar. Isso criou uma nova categoria de grupos de infraestrutura energética, ou seja, operadores que controlam geração, conversão, resfriamento e hospedagem.

A expressão mais clara é a de operadores verticalmente integrados no mercado privado, como Crusoe e Lancium, e plataformas de computação nativas no mercado público, como Iren e Core Scientific, que já possuem a base mais difícil de replicar: a energia.

As empresas que controlam o fluxo eletrônico para os racks estão construindo a barreira mais profunda na economia da IA. O software não pode consumir infraestrutura física.

Ver original
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
  • Recompensa
  • Comentar
  • Republicar
  • Partilhar
Comentar
Adicionar um comentário
Adicionar um comentário
Nenhum comentário
  • Fixar