O momento DeepSeek do TAO: A ascensão do Templar (SN3)

TAO-5,2%
BTC0,12%

Autor: CJ_Blockchain

Em 3 de fevereiro de 2025, um modelo chamado DeepSeek-R1 foi silenciosamente lançado na plataforma de internet de supercomputação nacional.

Durante o mês seguinte, devido ao seu desempenho que rivalizava com os principais modelos fechados, e aos custos de treino comparáveis a um “preço de couve”, ele varreu o mundo.

Provocou uma forte queda nas ações de IA nos mercados americanos e marcou o início do momento “DeepSeek” da IA chinesa.

Em 10 de março de 2026, o Subnet 3 Templar da Bittensor anunciou a conclusão do maior treino de modelo de linguagem grande (LLM) descentralizado da história — Covenant-72B.

Este é o maior treino de modelo de linguagem grande descentralizado já realizado:

72 bilhões de parâmetros, treinado em um conjunto de dados de aproximadamente 1,1 trilhão de tokens, totalmente através da rede do Bittensor Subnet 3, sem permissões, com mais de 70 nós independentes participando livremente.

A Bittensor viveu seu próprio momento DeepSeek.

1. Templar (SN3): da coleta de dados à transformação do paradigma de treino centralizado para descentralizado

O Templar nasceu do SN3 operado pela Omega Labs, que inicialmente focava na coleta e exploração de dados multimodais. Com a evolução do mecanismo da Bittensor, essa sub-rede fez uma transição estratégica de “coletor de dados” para “forjador de modelos”.

Atualmente, o Templar é uma infraestrutura de treino de modelos distribuídos globalmente. Ele reúne poder computacional heterogêneo de todo o mundo através de mecanismos de incentivo, visando resolver os custos extremamente altos de treino de grandes modelos e o problema da centralização na censura. A entrega bem-sucedida do Covenant-72B valida a maturidade desse modo de produção descentralizado.

2. Covenant-72B: rompendo o teto de escala do treino descentralizado

Covenant-72B é um marco produzido pelo Templar e o maior modelo de treino prévio de arquitetura densa em uma rede descentralizada até hoje.

  • Parâmetros principais: 72 bilhões de parâmetros, treinado com o corpus de alta performance DCLM.
  • Desempenho: no teste de modelos básicos, seu desempenho é praticamente equivalente ao Llama-2-70B da Meta.
  • Otimização por instruções: após ajuste fino, o Covenant-72B-Chat demonstra forte competitividade em IFEval (seguimento de instruções) e MATH (raciocínio matemático), até superando modelos fechados de mesmo tamanho em alguns indicadores.
  • Eficiência de inferência: atingiu uma taxa de processamento de 450 tokens/sec, resolvendo o problema de latência na resposta de grandes modelos em aplicações práticas.

3. Algoritmo SparseLoCo: motor de base para treino descentralizado

Treinar um modelo de 72B em uma rede comum enfrenta o maior desafio de largura de banda entre os nós. O Templar utilizou o algoritmo central SparseLoCo para alcançar uma ruptura qualitativa:

  • Compressão extrema: o algoritmo transmite apenas 1%-3% dos componentes essenciais do gradiente, quantizando os dados em 2 bits, reduzindo drasticamente a demanda de banda.
  • Sincronização de baixa frequência: diferente do sincronismo a cada passo em clusters tradicionais, o SparseLoCo permite que os nós façam 15-250 iterações locais antes de sincronizar globalmente.
  • Compensação de erro: por meio de acumulação local de gradientes, garante que a convergência do modelo não seja prejudicada mesmo com a perda de mais de 97% das informações.

Essa abordagem técnica demonstra que, mesmo sem redes dedicadas caras como InfiniBand, é possível produzir inteligência de alto nível usando redes comuns e distribuídas globalmente.

4. Avaliação da indústria e reação do mercado

Os avanços do Templar chamaram atenção do setor de IA e do mercado de capitais:

  • Reconhecimento oficial:

Jack Clark, cofundador da Anthropic, classificou o Templar em seu relatório como a maior rede de treino descentralizado ativa do mundo, destacando seu ritmo de desenvolvimento acima das expectativas do setor.

Jason Calacanis (host do All-In Podcast e investidor de Silicon Valley) detalhou recentemente o mecanismo da Bittensor em seu blog, sugerindo que as pessoas comprem.

  • Estratégia institucional:

A Grayscale continua acumulando TAO, considerando-o uma posição central na corrida de IA descentralizada.

A DCG criou a Yuma, focada em acelerar o ecossistema Bittensor (TAO), vista como a maior e mais direta aposta da DCG na IA descentralizada.

  • Desempenho de mercado:

$TAO: após o anúncio do Templar de completar o treino do modelo de 72B, TAO subiu mais de 30%, demonstrando força mesmo em um mercado de oscilações do BTC.

$Templar (SN-3): Templar cresceu 75% em 7 dias, sendo considerado o principal captador de emissão da Bittensor atualmente. O valor de mercado atual é de apenas 70 milhões.

5. Potencial de investimento em sub-redes e teto ecológico

O sucesso do Templar abre novas possibilidades para o ecossistema Bittensor:

  • Expandindo o teto de valor: por muito tempo, o mundo duvidou que a Bittensor fosse apenas uma “injeção de incentivo de ar”. O Templar provou que o protocolo pode gerar ferramentas produtivas com potencial de comercialização, mudando a lógica de avaliação do TAO de “narrativa” para “produto”.
  • Potencial de poder computacional heterogêneo: com o desenvolvimento do “SparseLoCo heterogêneo”, placas de vídeo de consumo (como RTX 4090) poderão participar diretamente do treino de modelos de bilhões de parâmetros, democratizando recursos computacionais.
  • Oportunidade de sub-redes com certeza: sob o mecanismo dTAO, sub-redes como o Templar, com barreiras tecnológicas sólidas e capacidade de produzir modelos de alto desempenho, possuem alto valor de longo prazo para seus tokens.

Templar atual MC=75m, FDV=350m

Enquanto as principais empresas de grandes modelos, como OpenAI, avaliam-se em 840 bilhões, Anthropic em 350 bilhões e Minimax em 45 bilhões.

Não quer dizer que o Templar possa competir diretamente com essas empresas, mas, em um cenário de narrativa escassa, dispersão de atenção e desconfiança na descentralização, sua presença é um forte impulso para a IA descentralizada.

Conclusão

O Templar demonstrou que ambientes descentralizados podem não apenas armazenar dados, mas também produzir inteligência. Covenant-72B é apenas o começo; com a integração vertical de SN3 (pré-treinamento), SN39 (poder computacional) e SN81 (aprendizado por reforço), uma versão de uma IA descentralizada baseada em blockchain já começa a emergir.

Desde o nascimento, a indústria de criptomoedas já desmentiu muitas narrativas. As promessas de armazenamento descentralizado, poder de computação descentralizado e computadores descentralizados parecem ter sido refutadas, mas ainda há projetos que avançam firmemente na direção da descentralização e conquistam resultados.

O sucesso do Templar não é apenas o momento DeepSeek da Bittensor, mas possivelmente também o momento DeepSeek do setor de Criptomoedas.

Ver original
Isenção de responsabilidade: As informações contidas nesta página podem ser provenientes de terceiros e não representam os pontos de vista ou opiniões da Gate. O conteúdo apresentado nesta página é apenas para referência e não constitui qualquer aconselhamento financeiro, de investimento ou jurídico. A Gate não garante a exatidão ou o carácter exaustivo das informações e não poderá ser responsabilizada por quaisquer perdas resultantes da utilização destas informações. Os investimentos em ativos virtuais implicam riscos elevados e estão sujeitos a uma volatilidade de preços significativa. Pode perder todo o seu capital investido. Compreenda plenamente os riscos relevantes e tome decisões prudentes com base na sua própria situação financeira e tolerância ao risco. Para mais informações, consulte a Isenção de responsabilidade.
Comentar
0/400
Nenhum comentário