GitHub 将用你的私有代码训练 AI,2026 年起默认开启
全球最大的代码托管平台 GitHub 宣布,从 2026 年 4 月 24 日起,将把用户在使用 GitHub Copilot 时的交互数据——包括代码片段、文件名、目录结构、光标位置、输入与删除记录——用于训练其 AI 模型。这一政策调整,被大量开发者称为“背刺”:就在几年前,GitHub 还反复强调“你的代码属于你”,如今却悄然把“私有仓库”变成了 AI 的训练素材库。
最令人震惊的是:即使你把代码放在“私有仓库”里,只要打开了 Copilot,哪怕你只是改了一个变量名、删了一行调试代码,这些内容都可能被自动收集。GitHub 官方称,这是为了“提升 Copilot 对真实项目中 Bug 的识别能力”,并引用内部测试数据称准确率提升了 15%。但没人能确认这些“真实项目”里,有多少是商业机密、开源协议受限代码,或尚未发布的内部系统。

“默认开启”不是惯例,是偷换概念
GitHub 辩称,这和 Anthropic、JetBrains 等公司的做法“一致”。但事实并非如此。
Anthropic 的 Claude 在使用用户数据前,明确要求用户主动勾选“同意用于模型改进”;JetBrains 的 AI 助手也提供清晰的开关,且默认关闭。而 GitHub 的新政策是:你不用管,系统自动收集,除非你手动关闭。
这不是“行业惯例”,这是把“默认知情同意”偷换成“默认授权”。开发者社区迅速炸锅。Reddit 上一篇相关帖子在 24 小时内获得超 3.2 万条反对评论,其中一条高赞回复写道:“我写代码不是为了喂 AI,我是为了赚钱、为了开源、为了不被起诉。”
谁可以躲过这场“数据收割”?
并非所有人都会被动接受。以下用户不受影响:
- 购买了 GitHub Copilot Business 或 Enterprise 版本的公司和组织(其数据受合同保护,明确排除用于训练)
- 通过 GitHub Education Plan 认证的 学生和教师
对于普通用户,如果你不想让自己的代码成为 AI 的“养料”,必须在 2026 年 4 月 24 日前主动操作:
- 登录 GitHub,点击右上角头像 → Settings
- 左侧菜单选择 “Copilot”
- 找到 “Allow GitHub to use my data to train AI models”
- 将开关关闭
官方提示:关闭后,Copilot 仍可正常使用,只是不再上传你的编辑行为。但请注意——如果你使用的是免费版或 Pro 版,这个设置一旦被重置(比如换设备、重装插件),系统可能再次默认开启。
法律风险正在逼近
这不是简单的“隐私争议”,而是潜在的法律雷区。
欧盟《通用数据保护条例》(GDPR)规定,个人数据的处理必须基于“明确同意”,且不得默认授权。美国加州《消费者隐私法案》(CCPA)也要求企业“不得默认收集敏感数据”。目前已有律师团队开始收集用户案例,准备对 GitHub 提起集体诉讼。
更现实的问题是:如果你的私有代码中包含受版权保护的开源项目片段(比如复制了 MIT 许可下的函数),而这些代码被用于训练 AI,再被其他用户调用——谁来负责?是用户?是 GitHub?还是那个被训练出来的模型?
别等 2026,现在就行动
距离政策生效还有近两年,但别以为时间还多。GitHub 的更新不会提前通知你,你的 Copilot 插件也不会弹出提醒。等到 2026 年某天你发现自己的代码出现在别人的 AI 生成结果里,一切都晚了。
如果你是独立开发者、自由职业者、或在小公司工作,你的代码可能就是你的核心资产。别让 GitHub 用“提升体验”的名义,悄悄拿走你的心血。
现在就去设置里关掉它。别信“反正我代码不重要”——重要的是,你有没有权利决定自己的东西去哪。