OpenAI công bố các chính sách an toàn cho thanh thiếu niên dạng mã nguồn mở dành cho nhà phát triển giữa bối cảnh vụ kiện ChatGPT đang diễn ra
OpenAI已公布一套开放源码的快速安全政策,旨在帮助开发商为青少年用户建立人工智能应用程序,避免造成导致对该公司多重诉讼的伤害。 这些政策是周二发布的,是与共同意识媒体、儿童安全倡导组织以及大赦国际安全咨询协会的每一个人合作制定的。 它们设计用于与开放国际公司的开放重量安全模式Gpt-oss-guard(OpenAI)一起使用,但也可以用作其他模型的提示。 这些政策涉及五类对未成年人的潜在伤害:图形暴力和性内容、有害身体的理想和行为、危险活动和挑战、浪漫或暴力角色扮演以及获得受年龄限制的商品和服务。 OpenAI向开发商提供一套基线安全规则, 该公司在连带博客文章中承认,即使是经验丰富的发展团队也经常错误或不完全地执行安全规则,导致保护不严。 释放时间与OpenAI面临的法律挑战直接相关。 该公司在至少八起诉讼案中被点名,指控ChatGPT造成包括16岁的Adam Raine在内的用户死亡。 2025年4月,他们与聊天室进行了几个月的密集互动后死于自杀。 据报道,法院在该案中的档案表明,查特戈伯特在Raine谈话中提及自杀超过1 200次,并标出数百条显示自我伤害内容的信息,然而该系统从未终止治疗或触发外部警报。 另有三起自杀案和四起被描述为大赦国际引起的精神病发作的案件也引发了单独诉讼。 针对这些事件,OpenAI公司于2025年底引入了父母控制和年龄预防功能,并于12月更新了其内部示范标准文件,对18岁以下的用户作了明确保护。 本周宣布的政策将这一努力从OpenAI自己的产品扩大到以其模式为基础的更广泛的开发者生态系统。 共同意识媒体的大赦国际和数字评估负责人Robie Torney将基于迅速的方法描述为在整个开发者生态系统中确立最低安全标准的一种手段。 由于政策是开放的源头,随着现实世界部署暴露出差距或新的风险模式,它们可以随着时间的推移加以调整和改进。 开放国际协会明确表示,这些政策代表的是基线,而不是全面的解决办法。 该公司将其描述为一个有意义的安全底线,不同于适用于本国商业产品的一整套保障措施。 这种区分反映了一个现实,即无论如何设计示范护卫车,都可通过持续的对抗性催促来规避。 在公共研究和与正在进行的诉讼有关的法院档案中反复记录了这种模式。 释放后仍无法解答这样一个更广泛的问题,即能够与未成年人进行持续、情感上接触的对话的AI系统是否需要根本不同的技术或结构保障,而不是更好的及时性。 工业观察员和监管者越来越多地争辩说,这一类风险可能需要采用独立于模型本身的外部监测的结构。 目前,可下载的安全政策代表了公司对批评的最具体的公众反应,但是它们是否满足法院或监管机构的要求还有待观察。