用得越多、失业越快?GitHub 大改 Copilot 规则:默认拿个人代码训练 AI,还搬出 Anthropic 挡枪
自今年 4 月 24 日起,GitHub 将更改 Copilot 的数据使用政策。根据官方公告,免费版(Free)、个人专业版(Pro)及专业增强版(Pro+)用户的交互数据将被默认用于训练和改进 GitHub 的 AI 模型,除非用户主动选择退出。
政策变更详情
此次更新主要针对个人用户,Copilot Business 和 Enterprise 企业用户不受影响,因为现有的合同义务禁止将企业数据用于模型训练。
- 受影响群体:Copilot Free、Pro 和 Pro+ 的个人用户。
- 数据范围:包括用户发送给 Copilot 的输入内容(代码片段)、以及与 Copilot 功能的交互数据(如 Chat 和行内建议)。
- 例外情况:
- 企业版(Business/Enterprise)用户。
- 免费获得 Pro 权限的学生和教师。
- 隐私控制:GitHub 强调用户拥有选择权。个人用户可以在设置中的“Privacy(隐私)”选项里手动退出。如果用户不采取行动,数据将被默认收集。GitHub 承诺会提前 30 天通知用户,并允许随时退出。

数据使用与共享机制
GitHub 表示,使用真实的用户交互数据对于提升 AI 辅助开发的体验至关重要。过去一年,微软员工的数据已被用于训练,并带来了建议采纳率的显著提升。
- 内部访问:用于训练的数据可能会被 GitHub 和微软内部负责 AI 模型开发的人员访问。
- 外部处理:数据可能会交由签有合同限制的服务提供商处理。
- 第三方共享:官方明确承诺,数据不会出售给第三方,也不会提供给第三方模型厂商用于训练他们自己的模型。
争议与用户担忧
尽管 GitHub 辩称这是行业惯例(并列举了微软、Anthropic 和 JetBrains 作为例子),但这一决定引发了不小的争议,主要集中在信任和操作层面。
- “用得越多,失业越快?”:许多开发者担忧,自己贡献的代码正在训练一个未来可能取代自己的工具。
- 误导性的退出路径:有用户反馈,进入账户设置点击 Copilot 后,界面并未直接提供退出选项,操作指引存在误导性。
- 未启用组织的漏洞:有用户指出,即使未在组织层级启用 Copilot,仍可能通过其他入口(如 Security Code Quality)使用 Copilot 生成修复建议,且这种情况下缺乏明确的“退出”按钮。
关于数据安全,GitHub 声称会通过访问控制、审计日志和自动化过滤(如过滤 API key、密码等)来保护数据,并回应称此前被曝出的“私有代码泄露”事件多涉及曾短暂公开的代码,而非 GitHub 主动收集的数据。