维基百科向直接用 AI 撰写条目说“不”,仍允许 AI 润色和翻译
维基百科社区与管理层近期围绕人工智能(AI)在条目创作中的角色展开了激烈讨论,并逐渐形成了一项核心指导原则:禁止直接使用AI撰写条目,但允许其作为润色、翻译或构思的辅助工具。这一立场旨在平衡技术效率与知识平台对准确性及可靠性的严格要求。
对生成式AI的审慎立场
维基百科创始人吉米·威尔士(Jimmy Wales)明确表达了对以ChatGPT为代表的生成式AI的担忧,尤其是其“幻觉”(Hallucinating)或编造事实的倾向。他认为,尽管AI发展迅速,但目前直接让AI独立撰写完整的维基条目仍不可行,因为这会损害平台赖以生存的准确性。维基媒体基金会在年度计划电话会议中也指出,其最大的担忧并非被AI取代,而是担心AI生成的低质量内容爆炸式增长,从而淹没真正有价值的信息,导致人工核查和修正的成本剧增。
AI在维基百科中的历史与一席之地
实际上,AI技术并非首次出现在维基百科中。早在大型语言模型流行之前,维基百科就已利用自动化工具来减轻人力负担,例如使用机器翻译辅助跨语言内容的创建,以及部署基于机器学习的算法来识别恶意破坏行为。此外,维基社群还发现AI在特定任务上表现出色,如将复杂的技术条目简化为儿童能理解的版本。因此,维基百科的立场并非完全排斥AI,而是界定其适用范围:用于翻译已有内容、检查语法或生成仅供人类编辑修改的草稿。
社区内部的激烈争议
关于AI辅助创作的具体界限,维基社群内部存在显著分歧:
- 谨慎派:强烈反对使用AI生成条目草稿,即便是为了后续的人工审阅。他们指出,AI太擅长编造“看起来很有道理的谎言”,且生成的文本往往带有非中立的语气,缺乏维基百科要求的客观性。
- 务实派:如纽约维基人Richard Knipel,他认为利用ChatGPT生成条目骨架或草稿,再由人工进行验证和充实,是符合维基百科运作模式的。这种观点引用了“坎宁安定律”——即通过发布错误答案来引出正确答案,认为糟糕的AI草稿能激发志愿者的修改欲。
小语种的困境
AI的使用在小语种维基百科中引发了更为严重的危机。随着AI翻译工具的普及,大量未经校对的机翻内容涌入了如格陵兰语、因纽特语等弱势语言版本。这不仅导致了语法错误和荒谬的失实信息(例如宣称加拿大只有41名居民),更形成了一个恶性循环:这些充满错误的维基页面被互联网抓取,反过来污染了AI模型的训练数据,导致“垃圾进,垃圾出”,进一步毒害了这些语言的数字化生存环境。为此,英语维基百科已基本禁止使用其内置的“内容翻译”工具,因为约95%的机翻文章未达标。
与ChatGPT的互补性
从根本上讲,维基百科与ChatGPT有着不同的知识呈现逻辑。
- 维基百科:提供结构化、有索引、可深度阅读的知识体系,依靠详尽的参考文献构建信任。
- ChatGPT:提供对话式、即时性的问答交互,擅长快速总结和生成,但缺乏系统性的知识架构和单向的内容溯源。
维基百科的策略是坚守其作为“教科书”式的严谨定位,将AI视为一种能够提升效率但必须严加监管的辅助工具,而非知识的最终生产者。