A corrida armamentista de inteligência artificial (IA) acaba de receber mais um impulso de foguete depois que a Nvidia investiu cerca de 2 bilhões de dólares na construtora de nuvem de IA Nebius, sinalizando que a próxima fronteira da computação não será conquistada apenas com código inteligente — será lutada com gigawatts de eletricidade e armazéns cheios de silício.
A Nvidia e o Nebius Group anunciaram esta semana que o gigante dos chips investirá aproximadamente 2 bilhões de dólares através de warrants pré-financiados, garantindo uma participação minoritária enquanto apoia a expansão de uma infraestrutura de IA de escala hyperscale que deve superar 5 gigawatts de capacidade de computação acelerada pela Nvidia até 2030.
Cinco gigawatts, para contextualizar, não é um número de startup fofo. É o tipo de consumo de energia normalmente associado a cidades, não a racks de servidores. Na prática, a parceria visa criar enormes “fábricas” de IA capazes de treinar grandes modelos, executar cargas de trabalho de inferência e lidar com a crescente onda de sistemas de IA agentivos que agora inundam o setor de tecnologia.
A Nebius, com sede em Amsterdã e negociando na Nasdaq sob o ticker NBIS, é uma das entradas mais recentes na categoria que os analistas começaram a chamar de “neocloud” — empresas criadas especificamente para cargas de trabalho de IA, ao contrário de serem retrofitted de plataformas tradicionais de nuvem empresarial.
Ações do Nebius Group.
Se o nome parecer desconhecido, suas raízes não são. A Nebius surgiu em 2024 após a matriz holandesa do gigante russo de buscas Yandex desinvestir seus negócios russos por cerca de 5,4 bilhões de dólares. As operações internacionais remanescentes foram reorganizadas na Nebius, que agora opera infraestrutura de IA nos Estados Unidos, Europa e Israel.
Desde então, a empresa avançou com a urgência silenciosa de alguém que sabe que o bufê está prestes a acabar. A Nebius já opera grandes clusters de GPU alimentados por hardware da Nvidia — incluindo aceleradores H100 e H200 — e planeja adotar futuros sistemas como a arquitetura Rubin da Nvidia, CPUs Vera e plataformas de armazenamento BlueField como parte da nova parceria.
Em troca, a Nvidia garante um parceiro de ecossistema de longo prazo que consumirá enormes quantidades de seus chips. Pense nisso como o equivalente de hardware de garantir uma mesa no restaurante mais movimentado da cidade. As empresas afirmam que a colaboração abrange toda a pilha de tecnologia de IA — desde o projeto de data centers até a implantação de infraestrutura de inferência e gerenciamento de frotas de GPUs.
Jensen Huang, fundador e CEO da Nvidia, enquadrou a parceria como parte da próxima fase do boom de IA. “A IA está em outro ponto de inflexão — IA agentiva, impulsionando uma demanda de computação incrível e acelerando a construção de infraestrutura,” disse Huang no anúncio conjunto. “A Nebius está construindo uma nuvem de IA projetada para a era agentiva.”
O CEO da Nebius, Arkady Volozh, cofundador da Yandex que ajudou a conduzir a empresa através de seu renascimento pós-desinvestimento, apresentou a Nebius como um provedor de nuvem raro, criado especificamente para IA, ao invés de ser reaproveitado de serviços de computação legados.
“A Nebius foi construída para IA desde o primeiro dia,” disse Volozh. “Agora, com a Nvidia, estamos estendendo isso por toda a pilha — de fábricas de IA de escala gigawatt a inferência e software.”
E a escala de que eles falam não é hipotética.
Poucos dias antes do anúncio do investimento, a Nebius obteve aprovação para um campus de data center de IA de 1,2 gigawatts em Independence, Missouri, um dos maiores sites planejados de infraestrutura de IA nos Estados Unidos. O projeto deve gerar aproximadamente 1.200 empregos na construção e entregar um impacto econômico estimado de 650 milhões de dólares ao longo de duas décadas.
O projeto em Missouri é apenas uma peça de uma estratégia de expansão maior que pode levar a Nebius a operar até 16 sites globais de data center até o final de 2026, com capacidade de energia contratada chegando a quase 3 gigawatts no próximo ano.
Como era de se esperar, o dinheiro está sendo gasto a um ritmo que faria até os investidores do Vale do Silício piscarem.
A Nebius relatou despesas de capital de cerca de 2,1 bilhões de dólares apenas no quarto trimestre de 2025, e seu gasto projetado para 2026 varia entre 16 bilhões e 20 bilhões de dólares, enquanto corre para construir infraestrutura antes que a demanda ultrapasse a oferta.
A receita, por enquanto, permanece relativamente modesta — cerca de 530 milhões de dólares nos últimos doze meses — mas a empresa afirma que contratos de longo prazo e pedidos pendentes indicam uma rápida escalada.
Entre seus principais negócios estão um acordo de vários anos com a Microsoft ligado a um projeto de data center em Vineland, Nova Jersey, estimado entre 17 bilhões e 19,4 bilhões de dólares, bem como um acordo separado de 3 bilhões de dólares com a Meta Platforms.
Investidores, claramente, gostaram do que viram.
As ações da Nebius subiram entre 13% e 16% após a notícia do investimento da Nvidia, impulsionando a capitalização de mercado da empresa além dos 24 bilhões de dólares durante as negociações iniciais. Analistas frequentemente descrevem tais parcerias como um “efeito halo da Nvidia” — uma maneira polida de dizer que, quando a fabricante de chips aparece com um cheque, a Wall Street tende a presumir que algo interessante está acontecendo.
A mensagem mais ampla é inequívoca: a inteligência artificial pode ser construída com algoritmos, mas seu verdadeiro gargalo é infraestrutura — energia, refrigeração e chips avançados suficientes para manter os cérebros digitais funcionando. E, com a Nvidia escrevendo cheques de bilhões de dólares para expandir o ecossistema, a corrida para construir a espinha dorsal da IA mundial só está ficando mais alta.
A Nvidia apoia a Nebius para expandir uma infraestrutura de nuvem de IA massiva que consumirá grandes volumes de seus chips.
A Nebius é uma provedora de nuvem de IA de próxima geração, criada especificamente para treinar e executar grandes sistemas de inteligência artificial.
Representa uma capacidade enorme de data center — aproximadamente o consumo de eletricidade de milhões de casas dedicadas a cargas de trabalho de IA.
A explosão de modelos de IA, serviços de inferência e agentes autônomos exige uma capacidade de computação e energia sem precedentes.