Os analistas do setor na Deloitte preveem uma mudança significativa na infraestrutura de IA: as cargas de trabalho de inferência podem representar aproximadamente dois terços do uso total de poder de computação de IA até ao final de 2026. Esta tendência tem implicações para a cadeia de abastecimento de semicondutores e a alocação de recursos de computação. À medida que a inferência se torna cada vez mais dominante em relação ao treino nas operações de IA, os fabricantes de hardware especializados em processadores de uso geral e processadores especializados estão posicionados para beneficiar do aumento previsto de computação. A transição reflete a fase de maturidade dos sistemas de IA, passando do desenvolvimento para uma implementação de produção generalizada.
Ver original
Esta página pode conter conteúdo de terceiros, que é fornecido apenas para fins informativos (não para representações/garantias) e não deve ser considerada como um endosso de suas opiniões pela Gate nem como aconselhamento financeiro ou profissional. Consulte a Isenção de responsabilidade para obter detalhes.
Os analistas do setor na Deloitte preveem uma mudança significativa na infraestrutura de IA: as cargas de trabalho de inferência podem representar aproximadamente dois terços do uso total de poder de computação de IA até ao final de 2026. Esta tendência tem implicações para a cadeia de abastecimento de semicondutores e a alocação de recursos de computação. À medida que a inferência se torna cada vez mais dominante em relação ao treino nas operações de IA, os fabricantes de hardware especializados em processadores de uso geral e processadores especializados estão posicionados para beneficiar do aumento previsto de computação. A transição reflete a fase de maturidade dos sistemas de IA, passando do desenvolvimento para uma implementação de produção generalizada.