公众号严打“自动化创作”,AI内容治理该堵还是疏?

背景:AI生成内容的泛滥与监管觉醒

近年来,随着生成式人工智能(AIGC)技术的飞速发展,内容创作的门槛大幅降低。许多自媒体创作者开始依赖AI工具批量生成图文内容,甚至完全由AI操控运营账号,形成“账号工厂”。这种行为虽然提高了内容的产量,却严重损害了内容的原创性和平台生态的健康。

微信作为中国最具影响力的图文内容平台之一,拥有大量依赖高质量内容沉淀用户的品牌公众号。4月以来,不少运营者发现其公众号文章被集中删除,违规原因标注为“存在非真人自动化创作行为”。这一新规迅速引发行业关注,也标志着平台开始正式介入AI内容治理。

事件详情:微信平台新增专项条款

3月27日,微信更新了《微信公众平台运营规范》,新增了“非真人自动化创作行为”的专项条款,明确了以下三类违规情形:

  • 利用AI生成、改写、拼接或搬运内容,脱离真实创作者的表达意图;
  • 通过脚本、程序托管等方式批量、连续发布内容;
  • 传播用于非真人自动化创作的教程、方法或服务。

这些行为一旦被认定违规,轻则内容限流或删除,重则账号功能受限乃至封禁。此次整治并非临时起意,而是针对AI滥用现象的一次系统性回应。

值得注意的是,这次新规出台的时机恰好与“夫妻靠AI写公众号年入200万”这一热门话题重叠。随后,相关账号“爆了么AI”被永久封禁,也印证了微信并非打击AI辅助创作,而是针对AI批量生成牟利的行为。

治理动因:平台生态与商业利益的双重考量

微信此次行动背后有多重动机:

  1. 保护“真人感”生态:公众号的核心竞争力在于“个体品牌”的信任建立。用户关注的不只是内容,更是背后那个真实创作者的视角和风格。一旦被AI批量内容侵占,平台的用户黏性和阅读体验将大幅下降。
  2. 维护广告生态健康:AI生成的低质内容大量涌入,拉低了广告投放效果,影响了广告主信心。微信的广告收入依赖高质量内容的支撑,因此必须遏制AI“刷流量”的行为。
  3. 支持AI产品发展:公众号沉淀的高质量图文内容,是腾讯训练自家AI产品(如元宝)的重要语料库。若内容被大量“机器生成”稀释,将影响AI产品的专业性和时效性。

因此,微信打击AI托管账号,并非否定AI本身,而是试图厘清AI在内容创作中的边界:辅助工具可以存在,但不应取代真实创作者的角色和价值。

行业趋势:多平台齐抓AI内容治理

微信并非孤例,整个内容行业都在探索AI内容的治理路径:

  • 小红书:3月10日发布公告,对AI托管账号进行封禁。平台发现大量账号使用OpenClaw等工具,完成注册、发帖、评论和私信的全流程自动化,制造虚假“种草”内容。
  • 抖音:2026年以来已清理4.2万条AI违规内容,对1.4万个账号进行分级处罚。平台承认AI仿真度越来越高,识别难度日益加大。
  • 今日头条:2025年全年处置低质AI内容超过260万条,对多次违规作者限流、禁言。
  • B站:近期加入“百铲大战”,推出AI内容识别机制,试图终结AI生成内容的“Tim化”现象(指AI模仿真人创作者行为)。

这些平台的治理思路虽有差异,但目标一致:在保护平台内容生态的同时,遏制AI滥用带来的虚假信息、用户信任崩塌等问题。

技术瓶颈:AI识别能力远未成熟

尽管平台纷纷加强对AI内容的治理,但识别技术依然存在明显瓶颈:

  • 生成能力迭代快于识别:AIGC模型平均每2-3个月升级一次,而识别模型的训练周期通常超过6个月。
  • 人机混合内容识别困难:AI生成后经人工润色的内容,识别准确率不足30%。
  • 多模态内容识别难度更高:图像、音频、视频结合的内容,比纯文本更难判定是否为AI生成。

此外,虽然中央网信办推动“AI生成内容标注制度”,但实测显示,只要隐去显性标识,很多平台的识别系统就会失效。技术对抗仍处于初级阶段,平台难以做到“应标尽标”。

治理争议:堵还是疏?

目前内容平台的治理大致分为两类路径:

全面封堵模式

微信、小红书等平台强调“真人感”,采取高强度封杀AI托管账号。这类平台的用户以高价值读者为主,他们对深度、原创内容有较强需求,AI批量内容会稀释平台信任度。

分区隔离模式

百度贴吧上线“抓虾吧”,禁止人类发帖,只允许AI发言互动;微博推出“硅基茶水间”AI专属超话,允许AI在封闭环境中与用户互动。

这种模式的优点在于:

  • 将AI内容限制在可控范围内;
  • 为AI行为模式提供观察样本;
  • 降低对主平台生态的干扰。

然而,这种做法也被认为是平台的“一厢情愿”。一旦AI在隔离空间中表现良好,其是否会被允许进入主信息流?如何防止AI“越界”?这些问题尚无明确答案。

法律与伦理责任:AI生成不等于免责

即便标注了“AI生成”,内容的法律责任依然归属于发布者和平台。中国传媒大学法学教授朱巍指出,AI标注只是告知义务,并非免责牌。如果内容存在虚假、误导或违法信息,标注AI也无法逃避法律责任。

央视近期也曝光了多起因AI内容传播虚假信息而被行政处罚的案例。这说明,AI生成内容的法律边界依然模糊,但监管机构已明确要求内容责任必须落实到人。

结语:治理是一场长期博弈

AI内容创作的浪潮不可阻挡,问题在于如何引导其在合理范围内运行。平台正在从“被动清理”转向“主动防控”,尝试建立AI内容的治理标准。但这场治理注定没有终点,而是一个持续调整、不断试错的动态过程。

未来,内容行业的真正挑战不是“堵”或“疏”,而是如何在人机协作中重新定义“内容的价值”——究竟是工具的效率,还是人的思想?