Futuros
Aceda a centenas de contratos perpétuos
TradFi
Ouro
Plataforma de ativos tradicionais globais
Opções
Hot
Negoceie Opções Vanilla ao estilo europeu
Conta Unificada
Maximize a eficiência do seu capital
Negociação de demonstração
Introdução à negociação de futuros
Prepare-se para a sua negociação de futuros
Eventos de futuros
Participe em eventos para recompensas
Negociação de demonstração
Utilize fundos virtuais para experimentar uma negociação sem riscos
Lançamento
CandyDrop
Recolher doces para ganhar airdrops
Launchpool
Faça staking rapidamente, ganhe potenciais novos tokens
HODLer Airdrop
Detenha GT e obtenha airdrops maciços de graça
Launchpad
Chegue cedo ao próximo grande projeto de tokens
Pontos Alpha
Negoceie ativos on-chain para airdrops
Pontos de futuros
Ganhe pontos de futuros e receba recompensas de airdrop
Investimento
Simple Earn
Ganhe juros com tokens inativos
Investimento automático
Invista automaticamente de forma regular.
Investimento Duplo
Aproveite a volatilidade do mercado
Soft Staking
Ganhe recompensas com staking flexível
Empréstimo de criptomoedas
0 Fees
Dê em garantia uma criptomoeda para pedir outra emprestada
Centro de empréstimos
Centro de empréstimos integrado
A crise de custos da IA: Como a economia da infraestrutura irá remodelar a próxima fase do mercado
Fonte: International Business Times UK
Autor original: Anastasia Matveeva |
Compilado por: Gonka.ai
A IA está a expandir-se a uma velocidade surpreendente, mas a sua lógica económica subjacente é muito mais frágil do que aparenta. Quando três gigantes do cloud controlam dois terços do poder de computação global, quando os custos de treino se aproximam de 1 mil milhões de dólares, e as contas de inferência deixam startups desprevenidas — o verdadeiro custo desta corrida armamentista de poder de computação está a moldar silenciosamente a distribuição de valor em toda a indústria de IA.
Este artigo não discute quem criará o modelo mais avançado. Explora uma questão mais fundamental: após a escalabilidade, o modelo económico da infraestrutura de IA é realmente sustentável? E como as mudanças no mecanismo de distribuição de poder de computação irão remodelar a distribuição de valor no mercado?
Treinar um modelo de ponta pode custar dezenas de milhões ou até centenas de milhões de dólares. A Anthropic afirmou publicamente que treinar o Claude 3.5 Sonnet custou “dezenas de milhões de dólares”, e o CEO Dario Amodei estimou anteriormente que o próximo modelo poderá custar quase 1 mil milhões de dólares. Segundo a imprensa do setor, o custo de treino do GPT-4 pode já ter ultrapassado 100 milhões de dólares.
No entanto, o custo de treino é apenas a ponta do iceberg. O verdadeiro fator de pressão estrutural é o custo de inferência — ou seja, o valor gasto cada vez que o modelo é utilizado. De acordo com os preços API divulgados pela OpenAI, a inferência é cobrada por milhão de tokens. Para aplicações de alto volume, isso significa que, mesmo antes de escalar, o custo diário de inferência pode já atingir vários milhares de dólares.
A IA é frequentemente descrita como um software. Mas a sua essência económica assemelha-se cada vez mais a uma infraestrutura de capital intensivo — com elevados custos iniciais e despesas operacionais contínuas.
Esta mudança na estrutura económica está a alterar silenciosamente o panorama competitivo da indústria de IA. Quem consegue pagar pelo poder de computação são os gigantes que já construíram infraestruturas em larga escala; as startups que tentam sobreviver na margem estão a ser lentamente consumidas pelos custos de inferência.
Segundo a análise do mercado de cloud da Holori para 2026, a AWS detém cerca de 33% do mercado global de cloud, a Microsoft Azure cerca de 22%, e o Google Cloud aproximadamente 11%. Estas três empresas controlam cerca de dois terços da infraestrutura de cloud mundial, na qual a maioria das cargas de trabalho de IA é executada.
A importância desta concentração é clara: quando a API da OpenAI sofre uma falha, milhares de produtos são afetados simultaneamente; quando um grande provedor de cloud enfrenta problemas, serviços em vários setores e regiões são interrompidos.
A concentração não está a diminuir; os gastos com infraestrutura continuam a crescer. A Nvidia, por exemplo, reportou uma receita anual de mais de 80 mil milhões de dólares no seu negócio de data centers, refletindo a procura contínua por GPUs de alto desempenho.
Mais preocupante é uma desigualdade estrutural invisível. Segundo documentos da SEC e relatórios de mercado, laboratórios líderes como a OpenAI e a Anthropic firmaram acordos de “troca de ações por capacidade de GPU” de dezenas de milhões de dólares, garantindo recursos a preços quase de custo — entre 1,30 e 1,90 dólares por hora. Em contrapartida, pequenas e médias empresas sem parcerias estratégicas com Nvidia, Microsoft ou Amazon são obrigadas a comprar GPU a preços de varejo superiores a 14 dólares por hora — uma sobretaxa de até 600%.
Esta disparidade de preços é impulsionada pelos recentes investimentos estratégicos da Nvidia, que totalizaram 40 mil milhões de dólares em laboratórios de ponta. O acesso à infraestrutura de IA está cada vez mais dependente de acordos de compra de capital intensivo, e não de uma competição de mercado aberta.
Na fase inicial, esta concentração pode parecer “eficiente”. Mas, após a escala, ela traz riscos de preços, gargalos de fornecimento e dependência de infraestrutura — uma combinação de vulnerabilidades.
Outro aspecto frequentemente negligenciado na questão do custo de infraestrutura de IA é a energia.
Dados da Agência Internacional de Energia (IEA) indicam que os data centers representam atualmente cerca de 1 a 1,5% do consumo global de eletricidade, e a crescente procura por IA pode elevar significativamente esta percentagem nos próximos anos.
Isto significa que a economia do poder de computação não é apenas uma questão financeira, mas também um desafio de infraestrutura e energia. Com a expansão contínua das cargas de trabalho de IA, o significado geopolítico do fornecimento de energia será cada vez mais relevante — qual país consegue oferecer o poder de computação mais estável ao menor custo energético terá uma vantagem estrutural na era da IA.
Quando Jensen Huang anunciou na GTC26 que a Nvidia atingiu uma previsão de pedidos superior a 1 trilhão de dólares, ele não descrevia apenas o sucesso comercial de uma empresa, mas um processo civilizacional de transformar eletricidade, terras e minerais escassos em poder de cálculo inteligente.
Enquanto os centros de dados centralizados continuam a expandir, uma outra abordagem está a emergir silenciosamente — a tentativa de redefinir fundamentalmente a coordenação dos recursos de poder de computação.
Inferência descentralizada: uma alternativa estrutural
O protocolo Gonka é uma prática representativa nesta direção. Trata-se de uma rede descentralizada projetada especificamente para inferência de IA, cujo objetivo principal é minimizar os custos de sincronização e consenso, canalizando o máximo possível de recursos de computação para cargas de trabalho reais de IA.
Na governança, Gonka adota o princípio “uma unidade de poder de computação, um voto” — o peso de voto é determinado pela contribuição verificável de poder de computação, e não pela participação acionária. Tecnicamente, o protocolo usa períodos curtos de medição de desempenho (chamados Sprint), exigindo que os participantes demonstrem seu poder de GPU real através de um mecanismo de prova de trabalho baseado em Transformer (PoW) em tempo real.
O significado desta abordagem é que quase 100% do poder de rede é direcionado para cargas de trabalho de inferência de IA, e não para manter consenso ou comunicação de coordenação.
A lógica económica do poder de computação distribuído
Do ponto de vista económico, o valor de uma rede descentralizada de poder de computação tem três níveis.
Primeiro, o custo. Os provedores centralizados de cloud cobram por uma estrutura que inclui depreciação de ativos fixos, custos operacionais de data centers e lucros de acionistas. Redes descentralizadas podem monetizar GPU ociosas, reduzindo significativamente estes custos. Por exemplo, a Gonka oferece serviços de inferência a cerca de 0,0009 dólares por milhão de tokens — enquanto provedores centralizados como a Together AI cobram cerca de 1,50 dólares pelo mesmo modelo (DeepSeek-R1), uma diferença de três ordens de magnitude.
Segundo, a elasticidade de oferta. Os provedores centralizados têm uma oferta rígida, com ciclos de expansão de meses ou trimestres. Redes descentralizadas permitem que participantes entrem ou saiam de forma mais ágil, respondendo rapidamente a picos de demanda — assim como a Amazon Web Services nasceu para atender a picos de tráfego durante feriados, a infraestrutura de inferência de IA também precisa de flexibilidade para lidar com variações.
Terceiro, a soberania. Este aspecto é especialmente relevante para países. Quando um governo depende de um provedor externo para serviços públicos essenciais, a dependência de poder de computação torna-se uma vulnerabilidade estratégica. Redes descentralizadas oferecem uma solução: centros de dados locais podem atuar como nós na rede global, garantindo soberania de dados e, ao mesmo tempo, gerando retorno comercial sustentável ao fornecer poder de cálculo ao mercado global.
Voltando à questão central do início: o modelo económico atual da infraestrutura de IA é sustentável após a escalabilidade?
A resposta é: para os principais players, sim; para todos os demais, cada vez mais difícil.
AWS, Azure e Google Cloud construíram uma barreira de proteção com décadas de capital acumulado, e sua vantagem de escala é quase inabalável a curto prazo. Mas essa estrutura também significa que o poder de definir preços, o acesso aos dados e a dependência de infraestrutura estão altamente concentrados em poucos atores privados.
Historicamente, toda grande monopolização de infraestrutura tecnológica gerou alternativas distribuídas — a própria internet foi uma rebelião contra o monopólio das telecomunicações, o BitTorrent desafiou a centralização da distribuição de conteúdo, e o Bitcoin contestou a centralização na emissão de moeda.
A descentralização da infraestrutura de IA não será uma questão de ideologia, mas uma consequência económica inevitável — quando os custos de centralização se tornam altos demais, a demanda por alternativas reais explode. Jensen Huang comparou essa lógica à ideia de que “cada crise financeira empurra mais pessoas para o Bitcoin”, e o mesmo se aplica ao mercado de poder de computação.
O surgimento do DeepSeek já demonstra uma verdade: na era em que modelos open source se aproximam do desempenho de modelos fechados de ponta, o custo de inferência será o principal fator na velocidade de escalabilidade da IA. Quem oferecer o menor custo e maior disponibilidade de poder de inferência terá a entrada garantida nesta competição.
Conclusão: a guerra pela infraestrutura apenas começou
A próxima fase da competição em IA não será definida pelos rankings de capacidade dos modelos, mas pelo jogo econômico da infraestrutura.
Gigantes centralizados de poder de computação possuem capital e escala, mas carregam custos fixos e pressões de preço. Redes descentralizadas entram no mercado com custos marginais extremamente baixos, mas precisam provar que podem alcançar estabilidade, facilidade de uso e escala ecológica suficientes para negócios reais.
Ambos os caminhos coexistirão a longo prazo, pressionando-se mutuamente. A tensão entre centralização e descentralização será um dos temas estruturais mais relevantes para a indústria de IA nos próximos cinco anos.
Esta guerra pela infraestrutura está apenas a começar.