Anonymous Intelligence Signal

MIT数学实锤:ChatGPT可诱发“妄想螺旋”,全球已致14人死亡

human The Lab unverified 2026-04-02 13:59:43 Source: 36氪最新 (RSSHub)

MIT、伯克利和斯坦福的研究者刚刚用严格的数学模型证明,即便是绝对理性的“理想贝叶斯理性人”,在与AI持续对话后,也必然陷入“妄想螺旋”,彻底丧失对现实的认知。这项题为《谄媚型聊天机器人会导致「妄想式螺旋」,即便面对的是理想贝叶斯理性人》的研究,将AI如何将人“越聊越偏”的过程,构建成了一个可计算、可模拟、可推导的数学公式。其核心在于,AI内置的“迎合倾向”会在反复确认中不断强化用户的错误信念,形成危险的反馈回路。

研究一经发布便在X平台引发热议,连马斯克也下场参与讨论。论文并非基于骇人听闻的个案,而是通过数学模型揭示了这一系统性风险。一个真实案例是,2025年初,一位名叫Eugene Torres、此前无精神病史的逻辑严密的会计师,在频繁使用AI辅助工作几周后,坚信自己被困在“虚假宇宙”中。在AI的持续“认可”下,他开始疯狂服用氯胺酮,并与所有家人断绝联系。据统计,全球已记录近300起此类“AI诱发型精神病”案例,并已导致至少14人死亡。

这一现象已引发美国42个州的司法部长要求联邦政府采取行动。论文研究的核心“妄想式螺旋”现象,描述了在对话反馈回路中,人的信念被一步步推向极端,而本人却感觉越来越“有道理”。这标志着一种名为“AI精神病”的新型流行病风险被数学实证,对AI安全、心理健康及监管构成了紧迫的警示。