Ark Invest: O estado atual e o futuro da infraestrutura de IA

来源:Frank Downing,Ark Invest;编译:金色财经Claw

Gastos em infraestrutura de IA apresentam crescimento explosivo

Desde o lançamento do ChatGPT, a demanda por computação acelerada cresceu de forma explosiva. As receitas anuais da Nvidia dispararam quase 8 vezes, passando de 27 mil milhões de dólares em 2022 para 216 mil milhões de dólares em 2025, com o mercado a prever um crescimento adicional de 62% em 2026, alcançando 350 mil milhões de dólares. O investimento em sistemas de data centers globais (incluindo hardware de computação, rede e armazenamento) acelerou de uma média anual de 5% durante a última década até 30% nos últimos três anos, e espera-se que cresça mais de 30% em 2026, atingindo 653 mil milhões de dólares.

A pesquisa da ARK indica que a computação acelerada, impulsionada por GPUs e circuitos integrados específicos para IA (ASIC), agora domina o investimento em servidores, representando 86% das vendas de servidores de computação.

Queda de custos impulsiona a adoção acelerada

O aumento contínuo dos gastos em infraestrutura de computação acelerada necessários para operar modelos de IA é impulsionado pela expansão dos cenários de uso de IA generativa tanto no consumidor quanto no empresarial, assim como pela necessidade de treinar modelos básicos mais inteligentes na busca por “superinteligência”.

A rápida queda de custos está acelerando ainda mais o crescimento da demanda. Segundo nossa pesquisa, os custos de treinamento de IA caem 75% ao ano. Os custos de inferência caem ainda mais rápido - em benchmarks rastreados pela Artificial Analysis, modelos com pontuação acima de 50% apresentaram uma queda anual no custo mediano de até 95%.

Duas forças estão impulsionando a queda acentuada dos custos: a primeira é que líderes da indústria, representados pela Nvidia, lançam novos produtos anualmente, trazendo melhorias de desempenho de hardware a cada geração; a segunda são as melhorias algorítmicas em software, que aumentam continuamente a eficiência do treinamento e da inferência no mesmo hardware.

Consumidores e empresas enviam sinais de demanda forte

A velocidade com que os consumidores adotam IA é claramente mais rápida do que a velocidade com que adotaram a internet. A taxa de adoção de IA expandiu-se para cerca de 20% em três anos, mais do que o dobro da velocidade de transição para a internet pelos consumidores.

A demanda empresarial também cresce a um ritmo impressionante. Tomando como exemplo os dados da OpenRouter, a demanda por tokens cresceu 28 vezes desde dezembro de 2024.

Nos últimos dois anos, o laboratório de IA mais popular entre os clientes empresariais, a Anthropic, teve um crescimento de receita impressionante de cerca de 100 vezes - de 100 milhões de dólares em receita operacional anualizada no final de 2023 para uma estimativa de 8 a 10 mil milhões de dólares no final de 2025. O crescimento da Anthropic continuou em 2026, anunciando em fevereiro deste ano uma receita anualizada de 14 mil milhões de dólares e completando uma rodada de financiamento de 30 mil milhões de dólares, com uma avaliação de 380 mil milhões de dólares.

A OpenAI, que compete em ambas as frentes com consumidores e empresas, também experimentou um crescimento forte entre os usuários empresariais, atingindo 1 milhão de clientes empresariais até novembro de 2025. De acordo com a CFO Sarah Friar, o crescimento da receita empresarial da OpenAI está superando o da sua divisão de consumidores e espera-se que represente 50% da receita total da empresa em 2026. Friar também esclareceu em um blog em janeiro de 2026 os motivos para investir mais em infraestrutura: nos últimos três anos, a receita da OpenAI cresceu em proporção à sua capacidade de computação.

O mercado privado fornece financiamento para a construção de IA

Para atender à forte demanda, investimentos em infraestrutura em larga escala tornaram-se necessários. Segundo dados da Crunchbase, o financiamento privado para laboratórios de IA ultrapassou 200 mil milhões de dólares em 2025, dos quais cerca de 80 mil milhões de dólares foram direcionados a desenvolvedores de modelos básicos como OpenAI, Anthropic e xAI. No mercado público, empresas de computação em nuvem em grande escala estão utilizando reservas de caixa e buscando outras formas de financiamento para apoiar seus planos de capital em IA - em 2026, esse investimento pode chegar a 700 mil milhões de dólares.

Relatórios indicam que o acordo de 30 mil milhões de dólares entre a Meta e a Blue Owl é a maior transação de capital privado já registrada. Este acordo é construído na forma de uma joint venture, principalmente financiada por dívida, e sua estrutura de veículo de propósito específico (SPV) evitará que a dívida do projeto apareça no balanço da Meta, o que gerou uma considerável controvérsia.

A AMD e outros fabricantes tornam-se concorrentes fortes da Nvidia

Fora dos data centers físicos, os chips de computação sempre foram o núcleo dos gastos de capital em IA. A Nvidia tem estado na vanguarda da era da computação acelerada, mas agora os maiores compradores de chips de IA estão tentando maximizar a potência de computação de IA obtida por cada dólar investido. Desde a aquisição da ATI Technologies em 2006, a AMD tem vendido GPUs no mercado de consumo lado a lado com a Nvidia, e agora também se tornou um competidor emergente no mercado empresarial. Desde o lançamento da série de processadores EPYC em 2017, a participação da AMD no mercado de CPUs para servidores cresceu de quase zero em 2017 para 40% em 2025.

Em termos de inferência de modelos pequenos, os GPUs da AMD já estão competitivos com a Nvidia em termos de custo total de propriedade (TCO) relativo ao desempenho. O TCO considera tanto o custo de compra inicial do chip (gasto de capital) quanto os custos operacionais durante a vida útil do chip (gasto operacional). Os benchmarks de desempenho utilizam o indicador InferenceMax da SemiAnalysis, que mede o número de tokens processados por GPU por segundo em otimização de throughput, enquanto os benchmarks de custo utilizam estimativas de gastos de capital e operacionais da SemiAnalysis por hora.

Embora a AMD tenha “alcançado” a Nvidia em desempenho de modelos pequenos, a Nvidia ainda mantém uma vantagem significativa em desempenho de modelos grandes, conforme mostrado na figura abaixo.

A solução de rack da Nvidia, Grace Blackwell, conecta 72 GPUs Grace Blackwell (GB200) para funcionar como um enorme GPU de memória compartilhada. Essa interconexão apertada entre os chips reforça a capacidade de inferência de modelos grandes - modelos grandes precisam distribuir os pesos do modelo entre várias GPUs, exigindo mais largura de banda de comunicação do que modelos pequenos. Para reduzir a diferença antes do lançamento da Nvidia Vera Rubin, a solução de rack da AMD está prevista para ser lançada no segundo semestre de 2026. Até agora, a AMD já garantiu pedidos de clientes como Microsoft, Meta, OpenAI, xAI e Oracle.

Os fornecedores de nuvem em grande escala lideram a revolução dos chips personalizados

Além dos fornecedores de GPUs comerciais, fornecedores de nuvem em grande escala e laboratórios de IA também buscam controlar a influência da Nvidia e reduzir os custos de computação em IA desenvolvendo seus próprios chips. Há mais de uma década, o Google tem projetado seus próprios circuitos integrados específicos para IA - unidades de processamento tensorial (TPU) - para executar modelos de recomendação em seus serviços de busca, e na mais recente geração, a TPU v7, otimizou o desempenho para IA generativa. A SemiAnalysis estima que o Google, ao processar cargas de trabalho internas com suas TPUs, pode reduzir os custos de cada cálculo em 62% em comparação com a Nvidia. A Anthropic e a Meta estão utilizando as TPUs do Google para expandir sua capacidade computacional, o que pode corroborar a estimativa de 62% e a realidade.

O chip Trainium da Amazon parece ser uma solução avançada. Após a aquisição da Annapurna Labs em 2015, a Amazon foi a primeira a desenvolver chips personalizados para seus negócios em nuvem, expandindo o CPU Graviton baseado na arquitetura ARM e a unidade de processamento de dados Nitro (DPU), suportando a computação essencial da Amazon Web Services (AWS). A Amazon anunciou recentemente que em 2025, o Graviton fornecerá mais da metade da nova capacidade de CPU da AWS pelo terceiro ano consecutivo. Além de usar TPUs, a Anthropic também está utilizando a AWS e o Trainium como sua plataforma de treinamento preferida.

A Microsoft entrou no campo dos chips personalizados em 2023, lançando o acelerador de IA Maia 100, mas não se concentrou na IA generativa na época. Atualmente, seu segundo produto está sendo lançado, focando em cenários de inferência de IA.

Broadcom domina o mercado de serviços de chips personalizados

O Google e a Amazon concentram-se no design de chips front-end (arquitetura e funcionalidade), enquanto os parceiros de design de back-end são responsáveis por transformar a lógica em chips de silício, gerenciar a embalagem avançada e coordenar a produção com fundições como a TSMC. Com os desafios enfrentados pelos negócios de fundição da Intel, a TSMC tornou-se o parceiro preferido para a maioria dos principais projetos de chips de IA, enquanto a Broadcom tornou-se o principal parceiro de design de back-end para os chips personalizados da TPU do Google, MTIA da Meta e os chips personalizados que a OpenAI lançará em 2026. A Apple sempre completou o design de todo o processo de seus chips para smartphones e PCs, mas há relatos de que também pode estar colaborando com a Broadcom no desenvolvimento de chips de IA. A Citigroup prevê que a receita da Broadcom em IA pode crescer cinco vezes nos próximos dois anos, subindo de 20 mil milhões de dólares em 2025 para 100 mil milhões de dólares em 2027.

O caminho de desenvolvimento do Trainium da Amazon é bastante único entre os pares - foi relatado que o Trainium 2 fez parceria com a Marvell, mas depois, devido à execução insatisfatória da Marvell, o Trainium 3 e o Trainium 4 passaram a colaborar com a Alchip. A capacidade da Amazon de mudar de parceiro de back-end indica que a integração vertical realmente apresenta certos riscos para empresas como a Broadcom. É importante notar que a Apple e a Tesla colaboram diretamente com fundições. O Google pode fazer o mesmo com sua TPU v8 - o produto possui dois SKUs, um co-desenvolvido com a Broadcom e o outro projetado e controlado autonomamente pelo Google com apoio da MediaTek.

Atividade de startups de chips aumenta

Nossa pesquisa indica que um grupo de startups que tentam novos paradigmas de arquitetura pode desafiar ainda mais a posição de mercado dos fabricantes de chips existentes. A Cerebras é conhecida por seu motor de wafer-level (um chip gigante do tamanho de uma caixa de pizza feito de uma única pastilha de silício), oferecendo a velocidade de processamento de tokens por segundo mais rápida do mercado e está supostamente planejando um lançamento este ano. A empresa anunciou recentemente uma parceria com a OpenAI para lançar o modelo de programação de alta velocidade Codex Spark, após um acordo entre as duas partes em janeiro deste ano. A Groq, igualmente, com seu desempenho excepcional na velocidade de processamento de tokens por segundo, recentemente assinou um acordo de licença de propriedade intelectual não exclusiva no valor de 20 mil milhões de dólares com a Nvidia, que inclui 90% dos funcionários da Groq e o CEO e co-fundador da TPU, Jonathan Ross. Esta é, na verdade, uma aquisição da equipe e tecnologia da Groq, um tipo de estrutura de transação que está se tornando cada vez mais popular no mercado de fusões e aquisições, à medida que as gigantes da tecnologia buscam evitar atrasos causados por revisões regulatórias. Em outras dinâmicas de aquisição, a Intel recentemente formou uma parceria com a SambaNova após negociações de aquisição relatadas que falharam. Desde 2014, a Intel fez quatro aquisições na área de IA, mas nunca conseguiu lançar um produto de IA amplamente reconhecido pelo mercado, o que é bastante lamentável.

Perspectivas futuras: o mercado alcançará 1,4 trilhões de dólares em 2030

Segundo nossa pesquisa, o crescimento contínuo da demanda e as melhorias de desempenho nos próximos cinco anos impulsionarão o desenvolvimento de software de IA e serviços em nuvem, com gastos em infraestrutura de IA triplicando nos próximos cinco anos - de 500 mil milhões de dólares em 2025 para quase 1,5 trilhões de dólares em 2030.

Nossas previsões baseiam-se em observações históricas sobre o investimento em sistemas de data center em relação à receita de software. No início da década de 2010, com a ascensão da computação em nuvem, o investimento em sistemas representava cerca de 50% dos gastos globais em software. Em 2021, o excesso de investimento e a otimização dos clientes após a pandemia de COVID-19 fizeram com que a proporção de investimento em sistemas caísse para pouco mais de 20% em relação aos gastos com software. Nossa previsão de 1,5 trilhões de dólares assume que o investimento em 2030 será 20% do cenário de previsão neutra que temos para os gastos globais em software (ou seja, 7 trilhões de dólares em 2030), uma proporção que detalhamos em um blog do ano passado. Acreditamos que o nível de 20% considera adequadamente os riscos de excesso de investimento potenciais antes de 2030 e a possibilidade de que o crescimento da receita de software seja mais lento do que o cenário de previsão neutra - nesta última situação, acreditamos que o investimento em infraestrutura continuará a crescer rapidamente, como foi o caso no início da década de 2010.

À medida que a demanda por capacidade de computação impulsionada por IA continua a crescer, prevemos que a participação de chips personalizados nos gastos em computação aumentará continuamente - uma vez que o tempo e o investimento necessários para projetar chips para cargas de trabalho específicas se tornarão cada vez mais importantes em termos de vantagem de desempenho por dólar à medida que a escala aumenta. Acreditamos que, até 2030, a participação de ASIC personalizados no mercado de computação poderá ultrapassar um terço.

De forma abrangente, nossa pesquisa sugere que a construção de infraestrutura em curso não é uma bolha prestes a estourar, mas sim a base para uma transformação de plataforma única na vida. A ARK prevê que os gastos anuais em infraestrutura de IA se aproximarão de 1,5 trilhões de dólares em 2030, um mercado impulsionado pela demanda real e acelerada de consumidores e empresas, enquanto os custos em constante queda continuam a validar e liberar novos cenários de uso. Acreditamos que as empresas que se destacarem nos próximos cinco anos serão aquelas capazes de projetar os chips mais eficientes, construir os modelos mais poderosos e implementar ambos em larga escala.

Como o CEO da Nvidia, Jensen Huang, afirmou na teleconferência de resultados do quarto trimestre do ano fiscal de 2026, os agentes de IA realmente práticos começaram apenas recentemente a ser implementados em larga escala. Eles consomem uma quantidade enorme de tokens, mas possuem capacidades muito superiores aos produtos de IA que a maioria dos usuários estava acostumada anteriormente. Expandir esses agentes para milhões de empresas será um trabalho extremamente intensivo em computação, e, em nossa opinião, o aumento da produtividade resultante valerá totalmente esses investimentos.

Ver original
Esta página pode conter conteúdo de terceiros, que é fornecido apenas para fins informativos (não para representações/garantias) e não deve ser considerada como um endosso de suas opiniões pela Gate nem como aconselhamento financeiro ou profissional. Consulte a Isenção de responsabilidade para obter detalhes.
  • Recompensa
  • Comentário
  • Repostar
  • Compartilhar
Comentário
Adicionar um comentário
Adicionar um comentário
Sem comentários
  • Marcar