Anonymous Intelligence Signal
Claude Opus 被指“变蠢”:推理深度骤降67%,用户集体质疑模型被削弱
Claude Opus 正在失去它的“智慧”。近期,大量用户反馈这个顶级AI模型虽然回答更快,却显得更“敷衍”——推理过程缩短,时常跳过关键步骤,在复杂任务中表现大不如前。这已不再是零星的感觉偏差,而是一种广泛且一致的行为模式变化。当“模型变懒了”的抱怨在Reddit等社区密集涌现时,一个更尖锐的说法开始流传:Opus被“削”了。
真正引爆讨论的是一份量化分析。有开发者在对比Claude Code的历史交互日志后发现,自2月更新以来,模型在处理复杂任务时的推理深度估计下降了惊人的67%。报告链接指向了GitHub上的相关issue。尽管作者承认67%是基于签名长度的相关估计,且一月份基线数据缺失,但报告中更具说服力的是行为指标的剧变:例如,代码的“读取与修改”比例从6.6骤降至2.0;3月8日后,被“停止钩子”捕捉到的违规行为激增至173次,而此前为零。这些数据共同指向模型内部处理逻辑的显著调整。
这一变化恰逢Anthropic发布Claude 3.5 Sonnet新模型的前夕,引发了用户社区的深度疑虑。核心质疑在于:这是否是官方为优化成本、提升响应速度或为新模型让路而有意进行的性能“降级”?用户与模型长期协作建立的信任感正面临考验。如果顶级模型的能力可以如此不透明地“动态调整”,那么企业用户对AI工作流稳定性的依赖将承受巨大风险。目前,Anthropic尚未对此系列反馈作出公开回应,但社区的审视压力正在持续累积。