Anonymous Intelligence Signal
AI深度伪造X光片骗过放射科医生与大模型,医学影像安全防线告急
一项由美国西奈山伊坎医学院主导的国际研究发现,人工智能生成的深度伪造X光影像已达到以假乱真的程度,无论是经验丰富的放射科医生,还是最先进的多模态大语言模型,都难以准确将其与真实医学影像区分开来。这项发表在《放射学》杂志的研究,直接揭示了医疗诊断与医院信息系统面临的新型网络安全与安全风险。AI伪造的医学影像可能被用于医疗欺诈、诉讼造假,甚至可能被黑客用于篡改诊断结果,破坏整个电子病历系统的可信度。
研究召集了来自美、法、德等6个国家12家医疗中心的17名放射科医生参与测试。他们面对264张X光片,其中一部分由ChatGPT和斯坦福医学院的开源模型RoentGen生成。在未被告知研究目的的情况下,仅有41%的医生主动识别出AI图像。即便在明确告知后,医生的平均识别准确率也仅为75%。更令人警惕的是,包括GPT-4o、Gemini 2.5 Pro在内的四种顶级多模态大模型,识别准确率在57%至85%之间波动,表现并不稳定。即便是生成这些伪造影像的GPT-4o模型自身,也无法识别全部伪造品。
研究人员指出,这些AI生成的影像往往“过于完美”,暴露出非自然的特征,如骨骼表面异常光滑、脊柱过于笔直、肺部过度对称等。这种隐蔽的完美,恰恰构成了最大的欺骗性。研究团队建议,必须立即采取技术反制措施,如在医学影像中嵌入不可见的数字水印和加密签名,并加强对放射科医生的AI鉴别能力培训。这项研究为全球医疗行业敲响了警钟:当诊断的基石——医学影像本身的可信度被动摇,整个医疗系统的安全基础将面临前所未有的挑战。