A quantidade de GPUs da NVIDIA despachadas no ano passado atingiu 6 milhões de unidades, com o preço de um servidor Blackwell chegando a 3 milhões de dólares e uma remessa semanal de 1.000 unidades, dominando o mercado de chips de IA. Mas essa guerra de chips está mudando de direção, com o surgimento de chips personalizados como Google TPU, AWS Tranium, Broadcom ASIC, entre outros, e os analistas estimam que a participação de mercado da Broadcom no segmento de chips ASIC personalizados pode alcançar 70-80%.
GPU, de cartões de jogo a núcleo de IA na década de ouro
A evolução das GPUs da NVIDIA de cartões de jogo para o núcleo de chips de IA remonta a 2012 com o AlexNet. A equipe de pesquisa foi a primeira a usar a poder de processamento paralelo das GPUs da NVIDIA para treinar redes neurais, liderando significativamente em competições de reconhecimento de imagens e inaugurando a era do aprendizado profundo. A vantagem central dos chips GPU vem de milhares de núcleos de processamento paralelo, capazes de executar de forma eficiente operações de matriz e tensor, tornando-os ideais para treinamento e inferência de IA.
Em racks de servidores de grande porte, 72 GPUs podem ser agrupadas via tecnologia NVLink, formando uma unidade de processamento semelhante a uma GPU gigante. A NVIDIA não só fornece GPUs para OpenAI, governos e empresas ao redor do mundo, como também constrói sistemas completos de servidores. Seus concorrentes, como AMD, dependem de GPUs Instinct e de um ecossistema de software de código aberto para acelerar seu progresso, tendo recentemente recebido apoio da OpenAI e Oracle. As GPUs da AMD usam principalmente software de código aberto, enquanto as da Nvidia são otimizadas em torno do CUDA.
Chips ASIC personalizados se tornam a chave para a virada dos gigantes da nuvem
Desde Google, Amazon, Meta, Microsoft até OpenAI, os principais gigantes da nuvem estão investindo no desenvolvimento de chips ASIC (Circuitos Integrados de Aplicação Específica). Esses chips, projetados para uma única finalidade, são previstos para se tornar a categoria de chips de IA de crescimento mais rápido nos próximos anos. Com modelos de linguagem de grande escala entrando na fase de maturidade, a demanda por inferência está superando rapidamente o treinamento, e os custos, consumo de energia e estabilidade da inferência se tornaram pontos críticos para plataformas de nuvem, sendo esse o principal campo de batalha dos ASICs.
Ao contrário das GPUs universais, os ASICs funcionam como ferramentas “superprecisas e dedicadas”, otimizadas por hardware para cargas de trabalho específicas de IA, oferecendo maior velocidade e menor consumo de energia. Sua desvantagem é menor flexibilidade e uma barreira de entrada extremamente alta, com custos de desenvolvimento de centenas de milhões de dólares por chip, acessíveis apenas para os maiores provedores de nuvem. Os custos de desenvolvimento de ASICs personalizados para IA são extremamente elevados, chegando a centenas de milhões de dólares, mas para grandes provedores de serviços de nuvem, eles oferecem maior eficiência energética e reduzem a dependência da NVIDIA.
A Google foi a primeira grande a lançar um ASIC dedicado à aceleração de inteligência artificial, criando em 2015 o Tensor Processing Unit (TPU). Os chips TPU impulsionaram a invenção da arquitetura Transformer pela Google em 2017, que se tornou a base comum para IA como ChatGPT e Claude. Atualmente, a Google desenvolveu a 7ª geração de TPU, o chip Ironwood, e ajuda a Anthropic a treinar a série Claude usando milhões de TPU.
A AWS, após adquirir a Annapurna Labs, investiu fortemente no desenvolvimento de seus próprios chips de IA. Os chips Tranium e Inferentia tornaram-se pilares importantes de suas plataformas de treinamento e inferência. Em 2024, a Anthropic treinou modelos usando 500.000 chips Tranium 2 no centro de dados do Norte de Indiana na AWS, sem usar GPUs da NVIDIA, demonstrando que a posição dos ASICs está se fortalecendo.
Tendências de diversificação de chips e balanço de custo-benefício
Broadcom e Marvell, empresas de design de chips por contrato, são parceiros estratégicos essenciais para gigantes de nuvem. Os ASICs da Google TPU, aceleradores internos da Meta e os ASICs que a OpenAI está prestes a lançar contam com forte participação da Broadcom. A Broadcom ajuda na construção dos chips TPU da Google e dos chips de inferência de IA da Meta, e os analistas estimam que a Broadcom pode alcançar uma participação de 70% a 80% no mercado de ASICs personalizados.
Os chips de IA de borda também estão se estendendo para dispositivos pessoais. NPU (Unidade de Processamento Neural) são chips projetados especificamente para executar IA na borda, integrados em plataformas como Snapdragon da Qualcomm, AMD, Intel e na série M da Apple, usados em smartphones, laptops, casas inteligentes, veículos e robôs. A IA na ponta do dispositivo trará maior privacidade, menor latência e maior controle.
Comparação entre as três principais categorias de chips
GPU: Alta versatilidade, adequada para várias cargas de trabalho, mas com alto consumo de energia e custo elevado, atingindo 3 milhões de dólares por rack.
ASIC: Alta especialização, maior velocidade, menor consumo, com custos de desenvolvimento de centenas de milhões de dólares, mas com uma relação custo-benefício de 30-40% a longo prazo.
FPGA/NPU: Reconfiguráveis, situando-se entre as duas categorias, adequados para dispositivos de borda e fases de teste.
TSMC domina o gargalo da cadeia de suprimentos de chips
Seja com os chips Blackwell da NVIDIA, TPU da Google ou Tranium da AWS, a maioria dos chips de IA acaba sendo fabricada pela TSMC. Isso vincula de forma estreita o fornecimento de poder de computação de IA à geopolítica global. Os EUA estão tentando trazer parte da capacidade de fabricação de chips de volta ao território, com a fábrica da TSMC no Arizona e o processo 18A da Intel. No entanto, empresas chinesas como Huawei e Alibaba também estão ativamente desenvolvendo seus próprios chips ASIC, buscando alternativas domésticas diante das restrições de exportação.
Ver original
Esta página pode conter conteúdo de terceiros, que é fornecido apenas para fins informativos (não para representações/garantias) e não deve ser considerada como um endosso de suas opiniões pela Gate nem como aconselhamento financeiro ou profissional. Consulte a Isenção de responsabilidade para obter detalhes.
Guerra dos chips esquenta! O domínio das GPUs da NVIDIA enfrenta cerco por Google e Amazon
A quantidade de GPUs da NVIDIA despachadas no ano passado atingiu 6 milhões de unidades, com o preço de um servidor Blackwell chegando a 3 milhões de dólares e uma remessa semanal de 1.000 unidades, dominando o mercado de chips de IA. Mas essa guerra de chips está mudando de direção, com o surgimento de chips personalizados como Google TPU, AWS Tranium, Broadcom ASIC, entre outros, e os analistas estimam que a participação de mercado da Broadcom no segmento de chips ASIC personalizados pode alcançar 70-80%.
GPU, de cartões de jogo a núcleo de IA na década de ouro
A evolução das GPUs da NVIDIA de cartões de jogo para o núcleo de chips de IA remonta a 2012 com o AlexNet. A equipe de pesquisa foi a primeira a usar a poder de processamento paralelo das GPUs da NVIDIA para treinar redes neurais, liderando significativamente em competições de reconhecimento de imagens e inaugurando a era do aprendizado profundo. A vantagem central dos chips GPU vem de milhares de núcleos de processamento paralelo, capazes de executar de forma eficiente operações de matriz e tensor, tornando-os ideais para treinamento e inferência de IA.
Em racks de servidores de grande porte, 72 GPUs podem ser agrupadas via tecnologia NVLink, formando uma unidade de processamento semelhante a uma GPU gigante. A NVIDIA não só fornece GPUs para OpenAI, governos e empresas ao redor do mundo, como também constrói sistemas completos de servidores. Seus concorrentes, como AMD, dependem de GPUs Instinct e de um ecossistema de software de código aberto para acelerar seu progresso, tendo recentemente recebido apoio da OpenAI e Oracle. As GPUs da AMD usam principalmente software de código aberto, enquanto as da Nvidia são otimizadas em torno do CUDA.
Chips ASIC personalizados se tornam a chave para a virada dos gigantes da nuvem
Desde Google, Amazon, Meta, Microsoft até OpenAI, os principais gigantes da nuvem estão investindo no desenvolvimento de chips ASIC (Circuitos Integrados de Aplicação Específica). Esses chips, projetados para uma única finalidade, são previstos para se tornar a categoria de chips de IA de crescimento mais rápido nos próximos anos. Com modelos de linguagem de grande escala entrando na fase de maturidade, a demanda por inferência está superando rapidamente o treinamento, e os custos, consumo de energia e estabilidade da inferência se tornaram pontos críticos para plataformas de nuvem, sendo esse o principal campo de batalha dos ASICs.
Ao contrário das GPUs universais, os ASICs funcionam como ferramentas “superprecisas e dedicadas”, otimizadas por hardware para cargas de trabalho específicas de IA, oferecendo maior velocidade e menor consumo de energia. Sua desvantagem é menor flexibilidade e uma barreira de entrada extremamente alta, com custos de desenvolvimento de centenas de milhões de dólares por chip, acessíveis apenas para os maiores provedores de nuvem. Os custos de desenvolvimento de ASICs personalizados para IA são extremamente elevados, chegando a centenas de milhões de dólares, mas para grandes provedores de serviços de nuvem, eles oferecem maior eficiência energética e reduzem a dependência da NVIDIA.
A Google foi a primeira grande a lançar um ASIC dedicado à aceleração de inteligência artificial, criando em 2015 o Tensor Processing Unit (TPU). Os chips TPU impulsionaram a invenção da arquitetura Transformer pela Google em 2017, que se tornou a base comum para IA como ChatGPT e Claude. Atualmente, a Google desenvolveu a 7ª geração de TPU, o chip Ironwood, e ajuda a Anthropic a treinar a série Claude usando milhões de TPU.
A AWS, após adquirir a Annapurna Labs, investiu fortemente no desenvolvimento de seus próprios chips de IA. Os chips Tranium e Inferentia tornaram-se pilares importantes de suas plataformas de treinamento e inferência. Em 2024, a Anthropic treinou modelos usando 500.000 chips Tranium 2 no centro de dados do Norte de Indiana na AWS, sem usar GPUs da NVIDIA, demonstrando que a posição dos ASICs está se fortalecendo.
Tendências de diversificação de chips e balanço de custo-benefício
Broadcom e Marvell, empresas de design de chips por contrato, são parceiros estratégicos essenciais para gigantes de nuvem. Os ASICs da Google TPU, aceleradores internos da Meta e os ASICs que a OpenAI está prestes a lançar contam com forte participação da Broadcom. A Broadcom ajuda na construção dos chips TPU da Google e dos chips de inferência de IA da Meta, e os analistas estimam que a Broadcom pode alcançar uma participação de 70% a 80% no mercado de ASICs personalizados.
Os chips de IA de borda também estão se estendendo para dispositivos pessoais. NPU (Unidade de Processamento Neural) são chips projetados especificamente para executar IA na borda, integrados em plataformas como Snapdragon da Qualcomm, AMD, Intel e na série M da Apple, usados em smartphones, laptops, casas inteligentes, veículos e robôs. A IA na ponta do dispositivo trará maior privacidade, menor latência e maior controle.
Comparação entre as três principais categorias de chips
GPU: Alta versatilidade, adequada para várias cargas de trabalho, mas com alto consumo de energia e custo elevado, atingindo 3 milhões de dólares por rack.
ASIC: Alta especialização, maior velocidade, menor consumo, com custos de desenvolvimento de centenas de milhões de dólares, mas com uma relação custo-benefício de 30-40% a longo prazo.
FPGA/NPU: Reconfiguráveis, situando-se entre as duas categorias, adequados para dispositivos de borda e fases de teste.
TSMC domina o gargalo da cadeia de suprimentos de chips
Seja com os chips Blackwell da NVIDIA, TPU da Google ou Tranium da AWS, a maioria dos chips de IA acaba sendo fabricada pela TSMC. Isso vincula de forma estreita o fornecimento de poder de computação de IA à geopolítica global. Os EUA estão tentando trazer parte da capacidade de fabricação de chips de volta ao território, com a fábrica da TSMC no Arizona e o processo 18A da Intel. No entanto, empresas chinesas como Huawei e Alibaba também estão ativamente desenvolvendo seus próprios chips ASIC, buscando alternativas domésticas diante das restrições de exportação.