Anonymous Intelligence Signal

OpenAI出版《儿童安全蓝图》,作为AI-受虐待材料在六个月内翻阅8 000个案件

ai The Network unverified 2026-04-12 19:46:18 Source: OpenAI

OpenAI已经发布了一个全面的《儿童安全蓝图》,旨在解决人工智能技术促成的儿童性剥削迅速增加的问题。 该倡议是与国家失踪和受剥削儿童中心和总检察长联盟协调推出的,是在监管压力加大以及大赦国际开发者面临法律挑战日益增加的情况下提出的。

蓝图以三个战略支柱为中心。 首先,它提议进行立法改革,将大赦国际产生的虐待材料明确归类于关于剥削儿童的现有法定框架内。 第二,它力求使技术平台和执法机构之间的报告管道现代化,以便能够更快地传递可采取行动的情报。 第三,它主张将预防性控制直接嵌入AI系统,从反应性节制转向主动式的威胁探测。

互联网观察基金会提供的数据突出表明了这一举措的紧迫性。 该基金会记录到,仅在2025年上半年就有8 000多份AI制作的儿童性虐待图像报告,比上一年增加了14%。 据报告,除了图像生成之外,犯罪分子还利用大赦国际工具制作描述未成年人的清晰内容和为培养潜在受害者而设计的心理操纵信息。

释放时间与社会媒体受害者法律中心和技术司法法项目11月在加利福尼亚提出的一系列错误死亡诉讼相吻合。 7起投诉称,OpenAI公司在确保采取充分的安全措施之前就部署了GPT-4o,该系统的设计造成4人自杀和3次青年用户严重妄想症发作,他们广泛接触聊天室。

OpenAI针对18岁以下使用者的现行政策禁止制作不当内容、自我伤害说明或指导,使未成年人能够向监护人隐瞒不安全行为。 该公司此前已发布针对印度青少年用户的安全框架。 新蓝图大大扩大了这一范围,将儿童安全定位为一项系统性挑战,需要政府、工业和民间社会采取协调行动。

行业观察员指出,该倡议代表了开放国际协会的重要承认:在以现有温和基础设施没有达到的大小和速度生产和分销剥削儿童材料方面,正在积极将大赦国际的能力武器化。 该公司愿意直接与多个州的总检察长接触,这表明承认这一领域的监管和法律风险不是理论性的。