Anonymous Intelligence Signal

Claude Opus 被指“变蠢”:推理深度骤降67%,用户集体质疑模型被“削弱”

human The Lab unverified 2026-04-16 05:03:10 Source: 钛媒体

Claude Opus 正在经历一场信任危机。近期,大量用户反馈这个曾被视为最聪明的AI模型之一,其表现正悄然发生令人不安的转变。用户普遍感到,模型虽然回答速度更快,但推理过程却变得更短、更敷衍,仿佛跳过了关键的思考步骤。从零星的抱怨到Reddit社区内密集涌现的高度一致的负面反馈,一种共识正在形成:Claude Opus 可能真的“变蠢了”。

讨论的焦点迅速从主观感受转向了具体数据。一份基于Claude Code历史交互日志的分析报告指出,自2月模型更新以来,模型在处理复杂任务时的推理深度估计下降了惊人的67%。报告链接在社区内广泛传播。尽管作者承认67%是基于签名长度与思考内容相关性的估算,并非直接测量,且一月份的基线日志已被删除导致对比不够精确,但报告中揭示的行为模式变化更具说服力。例如,模型“读取代码”与“修改代码”的比例从6.6骤降至2.0;3月8日之后,系统捕捉到的模型“违规提前终止”行为高达173次,而此前记录为零。这些数据共同指向模型行为模式的系统性改变。

用户间的调侃——“凶猛的狮子被摘了毛圈,发现原来只是一条狗”——背后是真实的困惑与不满。核心质疑直指Anthropic:Claude Opus是否被有意“削弱”(nerfed)?如果是,原因是什么?是为即将发布的新模型让路,还是出于成本或性能优化的权衡?目前,Anthropic官方尚未对此波用户质疑作出正式回应。这一事件不仅考验着用户对单一模型的信任,更将AI公司如何在迭代更新中维持模型性能的透明性与一致性这一行业普遍问题,推到了聚光灯下。