AI 正在毁掉开源:从“协作圣地”到“垃圾洪水”,维护者士气跌至谷底,开始集体掀桌
AI生成的低质量内容(AI Slop)如洪水般涌入开源社区,正将曾经的协作圣地变为维护者的噩梦。从自动提交漏洞报告的AI工具到未经检查的AI代码补丁,这股浪潮不仅消耗了维护者宝贵的精力,更引发了社区的信任危机与集体抵制。
谁在制造AI Slop?
AI Slop指的是那些由AI工具自动生成,但未经人类审查或刻意以此充好提交给开源项目的低质量内容。这些内容通常包括:
- 毫无根据的安全漏洞报告: 攻击者利用AI扫描工具自动生成大量看似专业但实际无效的漏洞报告,试图骗赏金。
- 质量低劣的代码补丁: 许多“勤奋”的贡献者利用AI工具看了一遍代码库后,便自动提交PR,结果往往是代码风格不符、逻辑混乱甚至引入新的Bug。
- 垃圾邮件式的讨论: 在Issue和Pull Request中充斥着AI生成的长篇大论,实际上毫无营养。
这种现象的根源在于“刷贡献”的虚荣心以及攻击者对赏金的贪婪,而AI工具的低门槛让这一切变得轻而易举。
维护者的“掀桌”时刻
面对铺天盖地的垃圾内容,那些原本依靠热情驱动的维护者们士气跌至谷底,一些标志性项目开始采取零容忍政策。

- cURL终止漏洞赏金计划: 作为支撑互联网的基石级工具,cURL的创始人Daniel Stenberg在支付了8万6千美元、持续六年后,宣布终止漏洞赏金计划。原因正是无效的AI生成报告泛滥,严重浪费了维护者的时间。
- tldraw关闭外部贡献: 创始人Steve Ruiz宣布自动关闭所有外部拉取请求。他指出,当代码编写变得如此简单时,外部贡献的价值就受到了质疑。
- Ghostty实施永久封禁: Mitchell Hashimoto的Ghostty项目实施了零容忍政策,提交AI生成的糟糕代码将导致永久封禁。
这些极端措施并非随意之举,而是维护者在身心俱疲后,为了保护项目生存不得不做出的艰难决定。
面对AI的两难:禁令与无奈
社区对此并未达成统一共识,呈现出一种分裂的状态:
- 强硬禁令派: 以Gentoo Linux为代表,其在2024年4月完全禁止AI生成的贡献。理由包括版权归属模糊(如Copilot可能混用了GPL协议代码)、质量问题以及对环境伦理的考量。他们认为,即便目前的AI代码能被识别,未来的AI代码可能无法识别,设立禁令更多是表明一种文化态度。
- 观望犹豫派: 大多数项目采取观望态度。AI工具迭代极快,今天的政策可能明天就过时了。
- 平台责任缺失: 开源平台如GitHub虽提供了AI辅助工具,但在管理AI Slop上并未给予维护者足够的支持,甚至曾有政策暗示允许使用受版权保护的代码训练AI。这种平台利益与社区利益的冲突,让维护者感到孤立无援,正如某开发者所言:“当你使用GitHub时,GitHub会赚钱,而AI功能增加了用户粘性指标。”
开源精神的危机
AI Slop带来的不仅是工作量的增加,更是对开源协作本质的冲击:
- 社会契约的撕毁: 开源依赖于人与人之间的信任与互助。当一方试图用毫无成本的AI生成内容骗取声誉或金钱时,这种信任链条便开始断裂。
- 激励机制的崩塌: 维护者的义务劳动与投机者的零成本刷量形成了鲜明对比。如果编写代码变得毫无门槛,人类贡献者的独特价值何在?
- 文化氛围的恶化: 垃圾内容的泛滥让讨论区变得乌烟瘴气,真正的问题被淹没,热心贡献者的热情被浇灭。
走向何方?
AI正在重塑软件开发,但在开源领域,它目前更多扮演了破坏者的角色。要挽救这一局面,仅靠维护者“掀桌”是不够的。
首先,社区成员应当自律,不要利用AI提交未经思考的PR来美化自己的GitHub贡献图。其次,开源基金会和平台方需要出台更明确的政策,不仅要解决版权归属,更要关注如何保护维护者免受AI Slop的骚扰。最后,我们需要重新思考AI时代下的协作价值——如果代码不再是稀缺品,那么设计、架构、文档和真诚的人类协作将变得更加珍贵。
开源社区正站在十字路口,是被AI洪水淹没,还是筑起堤坝引导水流,取决于现在的每一个选择。