Anonymous Intelligence Signal
谷歌TurboQuant论文引爆存储芯片市场恐慌,AI内存需求骤降6倍,推理速度狂飙8倍
一篇来自谷歌的学术论文,直接撼动了万亿美元规模的存储芯片市场。本周三美股开盘,存储芯片板块遭遇集体重挫,美光科技、西部数据、希捷、闪迪等巨头股价全线下跌,跌幅最高超过6%。这场市场地震的导火索,是谷歌发布的TurboQuant压缩算法,它直接瞄准了当前大模型运行中最大的内存消耗源——KV缓存。该技术声称,无需重新训练模型,就能将KV缓存压缩至惊人的3-bit,使内存开销骤降6倍,同时推理性能几乎无损,计算速度甚至能提升8倍。
KV缓存是大模型维持对话“运行记忆”的关键,随着对话长度增加,其内存占用会像滚雪球一样膨胀,成为AI硬件的“吞金兽”。谷歌TurboQuant提出的方案极为激进:首先通过数学变换将高维向量内存开销归零,再用仅1-bit的额外空间放置“校正器”来消除压缩偏差。这一突破意味着,未来运行大模型可能不再需要海量的高端内存。论文结果引发了行业震动,甚至有评论将其比作“谷歌的DeepSeek时刻”。
对于美光、西部数据等存储巨头而言,这无异于一场底层逻辑的冲击。它们的估值很大程度上建立在AI服务器对单机内存容量需求持续增长的预期之上。TurboQuant带来的内存需求结构性骤降,直接动摇了这一核心增长叙事。如果每台服务器所需的高性能内存芯片数量因效率提升而减少,存储芯片行业依赖的“AI硬件红利”可能面临缩水风险。这一技术进展虽尚未正式发表,但其展示的可能性已足以在资本市场引发对行业未来需求的深度重估。