Anonymous Intelligence Signal
GitHub新规引爆开发者争议:默认拿个人代码喂AI,免费与专业版用户数据成“训练食材”
GitHub一项即将生效的新政策,将开发者与AI助手Copilot的日常交互数据,直接变成了训练自家模型的默认“食材”。从2026年4月24日起,使用Copilot免费版、专业版和高级专业版的个人开发者,其输入、输出的代码片段、上下文乃至开发导航模式,都将被默认用于改进GitHub的AI模型。这一“强行授权”式的数据使用规则,迅速在开发者社区中引发了对AI工具数据边界的新一轮激烈讨论。
此次政策更新精准区分了用户群体。受影响的仅限于个人用户使用的Copilot Free、Pro和Pro+版本。而付费更高的Copilot Business和Enterprise企业版用户则不受影响,其交互数据不会被用于训练。GitHub在公告中详细列出了将被收集的数据范围,包括用户接受或修改的Copilot建议、发送给模型的输入代码、光标附近的代码上下文与注释、文件名、仓库信息、开发导航模式以及与Copilot聊天功能的互动记录。官方同时划清了界限,强调不会使用企业版数据、用户主动选择退出的数据,以及处于“静止状态”的私有仓库内容。
尽管GitHub提供了在隐私设置中一键退出的选项,并承诺尊重用户“历史选择保留”原则,但默认“加入”的机制仍让许多开发者感到不安。核心争议在于,如果用户未留意到这项政策,其日常编程活动产生的海量数据将自动成为AI模型的养料。这迫使开发者社区不得不重新审视,在使用便利的AI编码助手时,个人知识产权与数据隐私的边界究竟何在。GitHub表示,这些数据可能会在其关联公司内部共享,这进一步增加了数据流向的复杂性。