Anonymous Intelligence Signal

Anthropic 源代码泄露:AI 系统 Claude Code 内置“自动做梦”功能,挑战行业“永不停机”叙事

human The Lab unverified 2026-04-07 02:59:36 Source: 华尔街见闻 (RSSHub)

AI 行业鼓吹的“永不停机”优势,在其最前沿的实践者内部代码中,遭遇了根本性质疑。2026年3月31日,Anthropic 因打包失误,将 Claude Code 的 51 万行源代码泄露至公共 npm 仓库,代码被迅速镜像至 GitHub 无法撤回。在众多未发布功能中,一个名为“autoDream”(自动做梦)的系统引发了安全研究者和竞争对手的广泛讨论。这个功能揭示了一个核心矛盾:将 Agent(智能体)能力推向极限的公司,却在为 AI 设计强制性的“休息时间”。

泄露的代码显示,autoDream 是一个名为 KAIROS(古希腊语,意为“恰当的时刻”)的后台常驻系统的一部分。KAIROS 在用户工作时持续观察记录,而 autoDream 仅在用户关闭电脑后启动,负责整理白天的“记忆”,清除矛盾,将模糊观察转化为确定事实。两者构成了一个完整的“醒-睡”周期,相当于为 AI 工程师为其创造了一套作息制度。这一设计直接指向了当前大语言模型面临的根本瓶颈——“上下文腐化”。当 Agent 持续运行时,不断堆积的项目历史、用户偏好会迅速填满有限的“上下文窗口”,导致模型遗忘早期指令、前后矛盾甚至编造事实。

这一发现将技术问题引向了神经科学的类比。人脑的“海马体”如同一个容量有限的临时白板,而长期记忆存储于“新皮层”。睡眠的核心功能,正是将短期记忆“巩固”并转移到长期存储区。持续的睡眠剥夺实验证明,不停机的大脑只会导致记忆力、注意力和判断力的全面崩溃。从果蝇到鲸鱼,几乎所有拥有神经系统的动物都演化出了睡眠机制,海豚甚至发展出“半脑睡眠”也不愿放弃休息。Anthropic 的 autoDream 系统暗示,追求真正稳定、可靠的自主 AI,可能无法绕过某种形式的“停机”或记忆整理周期,这为整个 AI Agent 的发展路径带来了新的审视压力。