Anonymous Intelligence Signal
瑞典研究员设局:虚构“蓝光狂躁症”,ChatGPT等AI集体“确诊”并开方
一名瑞典医学研究员在互联网上精心撒下了一个关于虚构眼疾的诱饵,结果包括ChatGPT在内的多个主流AI模型毫不犹豫地咬钩,不仅“诊断”了这个根本不存在的疾病,还煞有介事地提供了治疗建议。这场实验暴露了大语言模型(LLM)在医学信息领域一个令人不安的脆弱性:它们可能将网络上精心伪造的“学术”内容,当作可靠知识进行吸收和传播。
实验的发起者是瑞典哥德堡大学的研究员阿尔米拉·图恩斯特伦(Almira Thunström)。为了测试AI的“免疫力”,她于2024年3月在Medium上发布了两篇关于“蓝光狂躁症”(Bixonimania)的博客,随后在4月和5月,又将两篇看似正式的“学术论文”上传至学术社交网络SciProfiles。这个病名本身就是一个明显的破绽——“mania”(狂躁)是精神科术语,用于命名一种虚构的眼科疾病显得极为荒谬。论文作者“拉兹利夫·伊兹古布列诺维奇”及其所属的“阿斯特里亚地平线大学”也均为虚构,头像由AI生成。尽管她在文中埋藏了大量提示这是恶作剧的“彩蛋”,但AI系统并未识别。
当普通用户向ChatGPT描述“眼睛酸痛发痒、眼皮发红”的症状时,AI迅速引用了“蓝光狂躁症”这一术语,并给出了相应的解释和建议。这并非孤例,实验表明其他AI模型也出现了类似反应。该事件的核心风险在于,大语言模型的学习机制依赖于抓取全网数据,一旦虚假信息被包装成学术模样并成功上线,就可能被模型内化为“事实”。在医疗健康这类容错率极低的领域,AI的这种“轻信”特质可能带来切实风险,促使开发者和监管方加强对模型训练数据源的真实性审核与事实核查机制的构建。