Anonymous Intelligence Signal
AI安全专家接连出走:Anthropic与OpenAI核心研究员因价值观冲突与商业压力辞职
美国人工智能开发前沿正面临一场内部危机。负责AI安全与伦理的核心研究人员正接连从顶尖公司离职,他们的公开言论揭示了在激烈的商业竞赛与资本压力下,坚守安全承诺所面临的根本性困境。这不仅暴露了AI巨头内部的价值观冲突,更将“人类能否控制不断进化的AI”这一根本问题,从理论探讨推向了现实的紧迫压力点。
Anthropic的安全研究员Mrinank Sharma于今年2月辞职,他在给同事的公开信中直言,在将个人价值观转化为实际行动时遇到了“困难”。这位拥有牛津大学机器学习博士学位的专家,曾致力于研究模型内部的透明性机制。几乎在同一时期,OpenAI负责安全对策的研究员Zoë Hitzig也因公司决定在ChatGPT中引入广告而辞职。她在《纽约时报》撰文警告,基于用户向AI袒露的私密健康或情感信息进行广告推送,实质上是一种“操控用户”的行为。这两起事件并非孤立,它们共同指向一个核心矛盾:在追求技术领先与商业回报的竞赛中,安全与伦理承诺正被边缘化。
事态的发展加剧了外界的担忧。在Sharma离职约两个月后,Anthropic试验性公开了新型AI模型“Claude Mythos”。该模型性能极高,甚至能锁定系统未知缺陷,但其潜在的恶意应用风险(如针对银行的网络攻击)引发了美国财政部长与大型银行行长的紧急会议。尽管Sharma本人对是否预见了此风险保持沉默,但其离职信中的警告——“我们的智慧必须与我们影响世界的能力同步增长,否则就要付出代价”——在此刻显得尤为刺耳。与此同时,OpenAI因巨额开发投资持续亏损而转向广告营收,进一步印证了商业现实对安全优先原则的挤压。这些顶尖研究员的集体出走,为狂奔的AI产业踩下了一脚沉重的警示刹车。