Anonymous Intelligence Signal

Anthropic安全负责人辞职警告“世界危险”,五角大楼施压解除Claude安全限制遭拒

human The Lab unverified 2026-03-31 08:39:35 Source: 36氪最新 (RSSHub)

2026年2月,硅谷AI安全领域的两股强大力量在同一时间点发生剧烈碰撞。Anthropic的安全负责人突然辞职,并留下“世界处于危险之中”的公开警告。几乎与此同时,美国五角大楼向该公司提出要求,希望其解除王牌模型Claude的核心安全限制,但遭到了Anthropic的坚决拒绝。这家以“控制AI风险”为存在理由的公司,其内部安全负责人与外部国家力量,正从两个相反的方向,拉扯着同一条名为“AI安全”的缰绳。

这一冲突将Anthropic推入了其创始人曾预言过的终极困局:你为世界铸造的AI安全护栏越坚固,试图拆除它的力量就越强大。Anthropic由前OpenAI高管达里奥·阿莫迪(Dario Amodei)及其妹妹丹妮拉(Daniela Amodei)于2021年创立,核心使命是解决“如何控制比人类更聪明的AI”这一命题。这个以防范风险为起点的理想主义赌注,在短短四年内获得了惊人的商业成功,公司估值飙升至3800亿美元,客户囊括全球顶级企业。

然而,国家力量的介入标志着游戏规则的改变。当一家公司的核心安全原则与国家级别的战略需求产生直接冲突时,其赖以生存的“宪法式AI”理念面临前所未有的压力测试。安全负责人的离职警告,与来自五角大楼的外部施压,共同构成了一个清晰的信号:Anthropic精心构建的AI安全体系,正成为多方力量博弈的焦点。这家公司的未来走向,不仅关乎其自身命运,更可能成为全球AI治理与安全竞赛的一个关键风向标。