Anonymous Intelligence Signal
Meta与METR最新数据验证:清华团队两年前提出的「密度定律」正成为AI演进共识
全球三家顶尖AI研究机构在过去一周内,独立得出了几乎相同的惊人结论。美国研究机构METR在4月3日更新的技术报告中指出,AI能力每88.6天翻倍一次。仅仅五天后,Meta超级智能实验室在发布新模型Muse Spark时,也公开了一条内部称为“scaling ladder”的训练效率曲线,其核心结论是:要达到一年前Llama 4 Maverick的性能,新模型所需的训练算力不到十分之一。两家机构的研究方法毫无交集,但当两条曲线被换算到同一坐标系时,其斜率几乎完全重合。
更令人意外的是,这条揭示AI效率指数级提升的曲线,早在两年前就被一个中国团队完整地描绘出来,并发表于《自然·机器智能》子刊。这项由面壁智能与清华大学联合团队(孙茂松、刘知远教授领衔,第一作者肖朝军)提出的理论被称为“密度定律”。该定律的核心判断是:模型智能密度随时间呈指数级增强,达到特定智能水平所需的参数量,每3.5个月下降一半。在2024年底,当整个行业仍痴迷于“规模定律”,认为参数越大智能越强时,这个结论显得颇为超前。
研究团队通过将当时所有有影响力的开源基础模型(从Llama-1到Gemma-2、MiniCPM-3,共51个模型)置于同一框架下进行评测,在五大基准测试中得出了近乎完美的指数关系(R²=0.934)。为排除数据污染的干扰,他们又用新构建的污染过滤数据集MMLU-CF进行了重测,结果R²高达0.95。如今,Meta和METR的最新实证数据与这条两年前的预测曲线高度吻合,这不仅验证了“密度定律”的前瞻性,也标志着全球AI研发范式可能正从单纯追求规模,转向对效率与密度的深刻关注。