Google推出TurboQuant算法,将大型语言模型的内存占用压缩至少6倍,同时在不牺牲模型准确率的前提下,将推理运算速度提升最高达8倍。市场迅速将这项技术解读为“需求侧破坏”,背后逻辑相当直接:若AI模型在推理阶段对内存的需求被压缩数倍,意味着未来数据中心对DRAM、HBM甚至NAND存储的需求增长曲线,可能出现结构性下修。
在消息释出后,内存与存储相关个股出现同步下跌,包括SanDisk(SNDK)下跌3.5%、Micron Technology(MU)下跌3.4%、Western Digital(WDC)下跌1.63%;亚洲供应链方面,Samsung Electronics下跌4.71%,SK Hynix跌幅更达6.23%。也有观点认为,TurboQuant更可能改变的是“资源使用效率”,而非单纯削弱需求。
Google最新算法:内存用量少六倍、推理速度快八倍
根据Google研究团队说明,TurboQuant是一套针对大型语言模型与向量搜索系统设计的量化(quantization)算法,核心在于大幅压缩AI模型中最吃资源的“key-value cache”与高维向量数据结构。在测试中,该技术可将内存占用压缩至少6倍,同时在不牺牲模型准确率的前提下,将推理运算速度提升最高达8倍。
(輝達Vera Rubin有何改变?解析记忆体战国时代:SK海力士、三星、美光、SanDisk)
这项突破直接命中当前AI基础设施的关键瓶颈。生成式AI在算力层的扩展,高度依赖HBM等高频宽记忆体,以承载模型权重与大规模KV cache,避免推理过程记忆体卡死。然而TurboQuant通过结合PolarQuant与Quantized Johnson-Lindenstrauss(QJL)等方法,在几乎“零额外记忆体开销”下完成压缩,等同于用更少硬件资源完成同样甚至更高效的运算。
Googlie算法冲击记忆体!美韩记忆体厂普跌
市场迅速将这项技术解读为“需求侧破坏”。在消息释出后,记忆体与存储相关个股出现同步下跌,包括SanDisk(SNDK)下跌3.5%、Micron Technology(MU)下跌3.4%、Western Digital(WDC)下跌1.63%;亚洲供应链方面,Samsung Electronics下跌4.71%,SK Hynix跌幅更达6.23%。
背后逻辑相当直接:若AI模型在推理阶段对记忆体的需求被压缩数倍,意味着未来数据中心对DRAM、HBM甚至NAND存储的需求成长曲线,可能出现结构性下修。特别是在AI产业逐步从“训练导向”转向“推理导向”的背景下,效率优化技术的边际影响将被放大。
不过,也有观点认为,TurboQuant更可能改变的是“资源使用效率”,而非单纯削弱需求。随着成本下降与延迟降低,AI应用场景反而可能进一步扩张,进而带动总体算力需求持续增长,形成“单位需求下降、总量需求上升”的结构。大型记忆体厂今年的产能都已售完,或许市场要想的是:AI成长的天花板,究竟有多大?
这篇文章Google新技术吓坏市场,AI记忆体需求少六倍!SK海力士、美光同步下杀 最早出现在链新闻ABMedia。