Anonymous Intelligence Signal

Meta联手MIT投毒训练AI:用67%错误率的“毒教材”强行突破推理极限

human The Lab unverified 2026-04-07 08:29:35 Source: 36氪最新 (RSSHub)

如果给AI喂一份错误率高达67%的教材,结局会是什么?在传统的AI训练中,这无异于“数据投毒”,轻则导致模型“脑雾”,重则逻辑崩塌。然而,Meta FAIR实验室与MIT的研究团队却将这份“毒药”变成了“神药”。他们让模型踩着一堆“满嘴谎言”的废料,爬上了人类难以触及的推理巅峰。这项名为SOAR的研究,彻底颠覆了“干净数据”的常识,揭示了谬误如何成为通往真理的垫脚石。

研究团队选取了MATH和HARP数据集中最棘手的“Fail@128”子集——这意味着模型对同一道题尝试128次,成功率依然是零。面对这种绝对的“认知真空”,传统强化学习会陷入“梯度消失”的困境。与DeepSeek R1依赖算力暴力采样不同,Meta的SOAR架构选择“自己造路”。它构建了一个“教师模型”,专门生成中间难度的“垫脚石问题”。令人震惊的是,分析显示这些垫脚石题目中,84%逻辑结构清晰合理,但其中高达67%的参考答案是错误的。按照OpenAI o1等模型的清洗标准,这些数据早该作为“幻觉垃圾”被剔除。

SOAR的核心在于一场冷酷的“双层博弈”。“混沌建筑师”(教师模型)负责编题,不管对错;“绝境求生者”(学生模型)则必须在这些充满谬误的题目中挣扎求生,构建自己的推理路径。即便最终答案错误,解题过程中的“脑力体操”却真实地锻炼了模型的推理能力。研究图表显示,学生模型在硬核问题上的准确率随着教师模型的“晋升”阶梯式上升。这证明,通过逐步生成更复杂但结构有效的垫脚石,SOAR机制能逼迫AI突破自我欺骗的陷阱,在“黑盒游戏”中走向更深层的“诚实”与逻辑能力。这项研究不仅是对训练范式的挑战,也可能重塑未来AI与“错误”共生的进化路径。