Anonymous Intelligence Signal

AI换脸偷声侵权只是开始:大模型训练的数据边界模糊,版权保护面临根本挑战

human The Lab unverified 2026-04-09 23:59:44 Source: 澎湃新闻 (RSSHub)

从AI换脸短剧到声音克隆滥用,技术狂奔正将肖像与声音的侵权推向新高度。近期,配音行业掀起大规模抵制行动,直指AI仿声与声音克隆技术的泛滥。与此同时,国家网信办发布《数字虚拟人信息服务管理办法(征求意见稿)》,试图为这一新兴业态建立系统性法治规范。然而,治理的难度在于技术门槛的降低与发展速度的飙升。当前的侵权模式尚属“照搬”,但未来AI可能转向更复杂的拼凑与混合——生成与某人声音或肖像仅有六七成相似的内容,届时侵权认定标准将变得模糊不清,维权之路将愈发艰难。

这场技术浪潮引出了一个更根本的拷问:如果说直接的AI换脸、偷声是明确的侵权,那么生成式人工智能大模型的训练数据边界又该如何划定?AI生成内容并非凭空而来,其背后是海量数据材料的搜集与训练。在未获明确同意的情况下,使用个人肖像、声音乃至受版权保护的书籍作品作为训练素材,是否构成侵权?即便开发者合法获取素材,是否应向素材所有者支付报酬?这些问题目前缺乏清晰的行业标准与法律指引。

2025年,包括理查德·奥斯曼、石黑一雄在内的知名作家联名致信英国政府,要求追究Meta使用受版权书籍训练AI的责任,这凸显了问题的全球性。当书籍、作品乃至个人的创作风格被视为可模块化拆解与重组的“素材”时,侵权认定将陷入困境——生成式AI可以“继承”多位作家的逻辑与风格,产出“大杂烩”式作品,造成“似侵非侵”的模糊地带。因此,AI时代的版权保护焦点,或许不应仅停留在已生成的内容上,更应溯及其源头:那些被用于训练的海量数据,究竟该如何被严格且合理地保护?