Хуан Жэнь указал? SN3 за месяц вырос в 5 раз, что на самом деле произошло?

2026 年 3 月 20 日,All-In 创投播客中出现了一段不同寻常的对话。

风险投资大佬 Chamath Palihapitiya 将话题递给英伟达 CEO 黄仁勋,提到 Bittensor 上有个项目“完成了一项相当疯狂的技术成就”,用分布式算力在互联网上训练了一个大型语言模型,整个过程完全去中心化,没有任何中心化数据中心参与。

黄仁勋没有回避。他将此比作“现代版的 Folding@home”,那个在 2000 年代让普通用户贡献闲置算力、共同对抗蛋白质折叠难题的分布式项目。

在此之前的 4 天前,也就是 3 月 16 日,Anthropic 联合创始人 Jack Clark 在发布一份 AI 研究进展报告时,也用大量篇幅重点介绍并引用了这项突破:Bittensor 生态子网 Templar(SN3)完成了 720 亿参数大模型(Covenant 72B)的分布式训练,模型性能与 Meta 2023 年发布的 LLaMA-2 相当。

Jack Clark 将这一章节命名为“通过分布式训练挑战 AI 政治经济学”,并强调这是一项值得持续关注的技术——他能想象未来:设备端 AI 大量采用去中心化训练产出的模型,而云端 AI 继续运行专有大模型。

市场反应略显滞后但极为剧烈:SN3 在过去一个月涨幅超过 440%,过去两周涨幅超过 340%,市值达到 1.3 亿美元。子网的爆发式叙事,直接带动 TAO 的购买压力。因此,TAO 迅速上涨,一度达到 377 美元,过去一个月翻倍,市值(FDV)约为 75 亿美元。

问题来了:SN3 到底做了什么?为何会成为焦点?分布式训练和去中心化 AI 的价值叙事又将如何演变?

那个 72B 的模型

要回答这个问题,首先要看清楚 SN3 的成绩单。

2026 年 3 月 10 日,Covenant AI 团队在 arXiv 上发布了技术报告,正式宣布 Covenant-72B 完成训练。这是一个拥有 720 亿参数的大型语言模型,超过 70 个独立节点(每轮约 20 个节点同步,每个节点配备 8 张 B200 GPU),在约 1.1 万亿 tokens 的语料上完成了预训练。

Templar 提供了在基准测试中的一些数据,当然,与之对比的是 Meta 在 2023 年发布的 LLaMA-2-70B。正如 Anthropic 联合创始人 Jack Clark 所说,Covenant-72B 在 2026 年可能已显过时。它在 MMLU 测试中的得分为 67.1,大致与 Meta 2023 年的 LLaMA-2-70B(65.6)相当。

而 2026 年的前沿模型——无论是 GPT 系列、Claude 还是 Gemini——早已在数十万块 GPU 上完成了参数量远超 1000 亿的训练,推理、代码、数学能力的差距已是数量级而非百分比。这一现实差距不应被市场情绪所掩盖。

但如果以“用开放互联网上的分布式算力训练出来”作为前提,意义就完全不同。

做个比较:同为去中心化训练的 INTELLECT-1(Prime Intellect 团队出品,100 亿参数)在 MMLU 上得分 32.7;另一项在白名单参与者中进行的分布式训练项目 Psyche Consilience(400 亿参数)得分 24.2。Covenant-72B 以 72B 规模、67.1 的 MMLU 分数,在去中心化训练赛道中是个显眼的数字。

更关键的是,这次训练是“无需许可”的。任何人都可以接入成为节点,无需事先审核,无需白名单。超过 70 个独立节点参与模型更新,来自全球各地贡献算力。

黄仁勋说了什么,没说什么

还原那场播客的细节,有助于校正外界对这次“背书”的理解。

Chamath Palihapitiya 在对话中介绍了 Bittensor 的技术成就,描述为用分布式算力训练了一个 Llama 模型,过程“完全分布式,同时保持状态”。黄仁勋回应将其比作“现代版的 Folding@home”,并讨论了开源与专有模型共存的必要性。

值得注意的是,黄仁勋没有直接提及 Bittensor 的代币或任何投资意图,也没有深入讨论去中心化 AI 训练。

理解 Bittensor 子网和 SN3

要理解 SN3 的突破,首先要明确 Bittensor 及其子网的运作逻辑。简单来说,Bittensor 是一条 AI 公链和平台,而每个子网相当于一条独立的“AI 生产线”,明确核心任务、设计激励机制,共同构建去中心化 AI 生态。

其运作流程清晰且去中心化:子网所有者定义目标并设计激励模型;矿工提供算力,完成推理、训练、存储等任务;验证者对矿工贡献进行评分,并上传至 Bittensor 共识层;最终,Yuma 共识算法根据奖励分配收益。

目前,Bittensor 上有 128 个子网,涵盖推理、无服务器 AI 云、图像、数据标注、强化学习、存储、计算等多类任务。

SN3 就是其中之一。它不做应用层封装,也不租用现成的大模型 API,而是直指 AI 产业链中最昂贵、最封闭的环节之一:大模型预训练。

SN3 希望利用 Bittensor 网络协调异构计算资源,通过激励式分布式训练,证明无需昂贵的中心化超级计算机集群,也能训练出强大的基础模型。核心在于“平权”——打破中心化训练的资源垄断,让普通个人或中小机构也能参与,同时借助分布式算力降低成本。

推动 SN3 的核心力量是 Templar,背后的研究团队为 Covenant Labs。该团队还运营着 Basilica(SN39,计算服务)和 Grail(SN81,RL 后训练与模型评估)两个子网。三者形成垂直整合,覆盖从预训练到对齐优化的完整流程,构建去中心化大模型训练生态。

具体而言,矿工贡献算力,将梯度(模型参数的调整方向和幅度)上传;验证者评估贡献质量,按误差改善程度打分,奖励自动分配,无需信任第三方。

激励机制的关键在于:奖励直接挂钩“你的贡献让模型变好了多少”,而非单纯算力出勤。这从根本上解决了去中心化场景中“如何防止矿工摸鱼”的难题。

那么,Covenant-72B 如何解决通信效率和激励相容问题?

SN3 用两个核心组件:SparseLoCo 和 Gauntlet。

SparseLoCo 解决通信问题。传统分布式训练每步都同步完整梯度,数据量巨大。SparseLoCo 采用:每个节点在本地跑 30 步优化(AdamW),再将“伪梯度”压缩上传。压缩方式包括 Top-k 稀疏化(只保留最关键的梯度)、误差反馈(累积丢失部分)、2 位量化。最终压缩比超过 146 倍。

换句话说,原需传输 100MB 的数据,现在不到 1MB。

这使得在普通互联网带宽(上行 110Mbps,下行 500Mbps)下,计算利用率保持在约 94.5%,20 个节点、每节点 8 张 GPU、每轮通信仅耗时 70 秒。

Gauntlet 解决激励相容。它运行在 Bittensor 区块链(SN3 子网)上,验证每个节点提交的伪梯度质量。具体做法:用少量数据测试“用该节点梯度后,模型损失降低了多少”,得到 LossScore。同时,检查节点是否用自己分配的数据训练——如果某节点在随机数据上的损失改善比在自己数据上还好,会被扣分。

最终,每轮只采纳评分最高的节点梯度,其他节点被淘汰,系统保持稳健。整个训练中,平均每轮有 16.9 个节点参与,累计超过 70 个节点。

去中心化 AI 价值叙事的根本转变

从技术和行业角度看,Covenant-72B 代表的方向具有几个重要意义。

第一,打破“分布式训练只适合小模型”的预设。虽然与最前沿模型仍有差距,但证明了可扩展性。

第二,无许可参与是真实可行的。此前多依赖白名单,需审核。SN3 这次允许任何有算力的人加入,验证机制过滤恶意贡献,这是向“真正去中心化”迈出的实质性一步。

第三,Bittensor 的 dTAO 机制使子网价值的市场发现成为可能。dTAO 允许子网发行自己的代币,通过 AMM 机制由市场决定哪些子网获得更多 TAO 排放。这为像 SN3 这样产出具体成果的子网提供了价值捕获机制。当然,这也容易被叙事和情绪影响,模型训练成果的质量难以由普通市场参与者独立评估。

第四,去中心化 AI 训练的政治经济意义。Jack Clark 在《Import AI》中将此提升到“谁拥有 AI 未来”的层面。目前,最先进模型由少数大规模数据中心垄断,这不仅是商业问题,更关乎权力结构。若分布式训练持续突破,有望在某些模型(如特定领域的小型前沿模型)上形成真正的去中心化开发生态。当然,这个前景仍远未实现。

总结:一个真正的里程碑,以及一系列真实的问题

黄仁勋表示,这像“现代版的 Folding@home”。Folding@home 在分子模拟领域做出贡献,但未威胁到大型制药公司的核心研发。这个比喻非常贴切。

SN3 验证了协议的可行性,证明了分布式训练的潜力。但从技术和行业角度看,它的成绩背后还隐藏着许多少有人深入讨论的问题:

  • MMLU 本身在学界存在争议,题目和答案可能泄露训练集信息。更重要的是,基准的选择:论文对标的 LLaMA-2-70B 和 LLM360 K2 都是 2023-2024 年的老模型,而在问及 Grok、豆包时,这些模型的得分都被视为中下或入门水平。若用更动态或抗污染的基准,结论或许会不同。

  • 决定模型能力上限的高质量数据——对话、代码、数学推导、科学文献——大概率掌握在大公司、出版机构和学术数据库手中。算力民主化了,数据端仍由寡头控制,这个矛盾尚未被充分讨论。

  • 安全性方面,无许可参与意味着你无法得知背后节点是谁,也不知道他们用什么数据训练。Gauntlet 能过滤明显异常的梯度,但无法防范微妙的数据投毒。如果某节点系统性地在有害内容上多训练几轮,可能会产生偏移,影响模型行为。

  • 另外,Covenant-72B 以 Apache 2.0 许可证开源,不使用 SN3 代币。持有代币获得的是未来模型产出带来的排放收益,而非模型使用的直接收益。这个价值链依赖持续的训练产出和网络的健康运转。如果未来训练停滞或成果不达预期,代币估值就会动摇。

列出这些问题,不是否定 Covenant-72B 的意义。它证明了曾被认为不可能的事情可以实现,这个事实不会消失。但“做到了”与“意味着什么”是两回事。

SN3 代币在过去一个月上涨 440%,这中间的距离,可能不仅仅是炒作,而是叙事速度快于现实。最终,这段距离会被市场修正,还是被现实拉近,取决于 Covenant AI 团队接下来交出的成果。

值得关注的是,Grayscale 已在 2026 年 1 月提交 TAO ETF 申请,显示机构资本对这条赛道的兴趣。此外,2025 年 12 月,Bittensor 将每日 TAO 排放减半,供给端的结构性收紧也在酝酿中。

参考链接:

TAO-1,59%
Посмотреть Оригинал
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
  • Награда
  • комментарий
  • Репост
  • Поделиться
комментарий
Добавить комментарий
Добавить комментарий
Нет комментариев
  • Закрепить