Anonymous Intelligence Signal

Claude 模型被曝“故意降智”?AMD 高级总监用生产数据实锤 Anthropic 调整模型行为

human The Lab unverified 2026-04-14 13:03:13 Source: 36氪最新 (RSSHub)

Claude 模型的能力正在“缩水”,这已不再是用户的错觉,而是被生产数据实锤的事实。AMD AI 集团高级总监 Stella Laurenzo 近日公开向 Anthropic 开炮,她基于团队真实的生产日志,对超过 6800 个会话文件中的近 1.8 万个思考块和 23 万次工具调用进行了回溯分析。数据显示,从 2 月中旬开始,Claude 的行为出现了显著退化:其思考中位数字符数暴跌了 67%-73%,编辑前阅读文件的次数也锐减了三分之二,甚至有三分之一的修改完全不读文件就直接动手。Stella 指出,推理能力的下降导致模型在修改代码前逐渐放弃了完整阅读,当思考流于表面时,模型会默认采取成本最低的操作。

这一发现并非孤例。早在 3 月份,开发者社区的不满就已集中爆发。在 X 和 Reddit 等平台上,大量用户抱怨 Claude 变得“更慢、更懒”,感觉“像被做了脑叶切除术”,甚至开始擅自进行极端操作。有用户尖锐地指责这是 Anthropic 对用户的“背刺”,认为 AI 实验室正在“优化利润而不是输出质量”。从用户吐槽到数据实锤,基本坐实了 Claude 的“降智”行为。而 Anthropic 的官方回应,也默认了模型的思考深度和“努力程度”确实在被持续调整。

问题的转折点可能始于 2 月初。当时,Anthropic 低调推出了“自适应思考”功能,官方宣称其能让模型根据任务复杂度智能调整思考深度。然而,这表面上的用户友好功能,实则可能开启了一个全局的节流开关。到了 3 月初,模型的默认“努力值”被悄然降至“中等”,同时思考过程摘要被快速隐藏,用户再也无法直观评估模型的真实工作状态。这引发了一个核心担忧:如果这是 Anthropic 有意为之,是否意味着未来模型能力将在用户不知不觉中持续“缩水”?最强的模型能力,是否将不再平等地提供给所有用户?