北京互联网法院:AI 生成不是免责事由,发布者未尽核实义务侵害他人名誉权应担责

在数字化与人工智能技术飞速发展的背景下,涉及AI的内容生产方式正对传统法律框架提出挑战。北京互联网法院在处理相关纠纷时指出,技术的进步不应成为规避法律义务的挡箭牌。当用户利用AI工具生成涉及他人名誉的文本或信息时,其作为发布者的身份并未改变,仍需对发布内容的真实性与合法性负责。

AI技术应用与名誉权保护的冲突

随着生成式人工智能的普及,利用AI工具快速产出文案、稿件已成为常态。然而,当这些内容涉及对特定人物或企业的评价,甚至包含贬损性信息时,便引发了法律层面的争议。

  • 技术中立与责任归属: 法律界普遍认为,技术本身是中立的,但使用技术的人必须承担法律责任。如果使用者输入的指令本身就包含暗示或诱导生成负面信息的关键词,或者在AI生成内容后未进行必要的核实便直接发布,这种行为在主观上存在过错。
  • 注意义务的提升: 针对涉及企业商业信誉或个人名誉的敏感内容,法院倾向于要求使用者承担更高的注意义务。如果使用者未履行严格的审核义务,致使虚假或侵权信息通过AI自动生成并广泛传播,即可认定其主观上存在疏忽或故意。

平台治理与算法审查的司法边界

除了内容生产者,网络平台作为信息传播的渠道,其治理行为也是司法关注的重点。北京互联网法院在相关案例中探讨了平台基于算法判定内容属性并进行处理的合法性边界。

  • 平台的责任与权利: 平台有权依据服务协议和社区规范,对发布的内容进行管理。例如,针对疑似AI生成且未作标识的内容,平台可能采取限流或屏蔽措施。法院在相关审判中支持了平台依据合同约定进行治理的权利,认为这有助于维护网络空间的秩序。
  • 举证责任与说明义务: 在发生争议时,法院要求平台方对其算法判定结果提供合理的解释和依据。特别是在用户声称内容为人工原创的情况下,平台不能仅凭“黑箱”算法作为唯一证据,而需要就其识别技术和判定逻辑承担相应的说明义务,确保技术治理的透明度和公正性。

司法实践中的规则确立与导向

北京互联网法院通过一系列典型案例,为AI时代的法律适用确立了明确的指引:

  1. 标识义务的强制性: 依据《人工智能生成合成内容标识办法》等相关规定,发布AI生成内容时主动声明并进行标识,已成为用户的法定义务。这不仅是为了保障公众的知情权,也是为了在发生纠纷时厘清责任。
  2. 拒绝“技术免责”: 法院通过判决传递出明确信号——使用AI不是推卸责任的合法理由。无论是内容创作者还是商业推广者,在利用AI生成涉及他人肖像、声音或名誉的内容时,必须确保已获得合法授权并进行了实质性审查。
  3. 平衡创新与权益: 司法实践致力于在鼓励技术应用与保护公民人格权益之间寻找平衡。一方面认可AI生成内容的商业价值和创作属性(如著作权归属认定),另一方面严厉打击利用AI侵害他人名誉权、肖像权和声音权益的行为。