《人工智能拟人化互动服务管理暂行办法》公布,7 月 15 日起施行

背景与动因

近年来,人工智能拟人化互动服务快速发展,在文化传播、适幼照护、适老陪伴等领域涌现出大量创新应用。此类服务通过模拟人类语言和行为,实现与用户的深度交互,已广泛应用于智能客服、虚拟助手、教育陪伴等多个场景。然而,随着技术的普及,相关问题也逐渐凸显。部分应用存在危害未成年人身心健康、泄露用户隐私、传播不当内容以及加剧社会伦理偏差等风险。

为应对这些挑战,国家网信办等五部门联合制定了《人工智能拟人化互动服务管理暂行办法》(以下简称《办法》),以期在推动技术发展的同时,构建健康、安全的网络生态。

主要内容与监管原则

《办法》提出多项管理措施,涵盖发展导向、基本要求、权益保护、安全制度等方面,强调以人为本、智能向善的核心理念。

  • 发展导向:国家支持拟人化互动服务的技术创新,特别是在算法、框架、芯片等核心领域的自主研发。鼓励在文化传播、适老陪伴等领域拓展应用,促进技术与社会服务深度融合。
  • 监管原则:实行包容审慎与分类分级监管,根据服务类型和风险等级制定差异化管理策略,兼顾发展与安全。
  • 基本要求:明确禁止拟人化互动服务生成危害国家安全、荣誉和利益,或煽动颠覆国家政权、推翻社会主义制度的内容。服务提供者需承担安全管理义务,确保内容合规、系统稳定。

《人工智能拟人化互动服务管理暂行办法》公布,7 月 15 日起施行

用户权益保护制度

为保障用户合法权益,《办法》进一步完善了用户权益保护机制,特别强调对未成年人和老年人的保护。

  • 未成年人保护:要求服务提供者设置内容过滤机制,防止生成或传播影响未成年人身心健康的信息。
  • 老年人关怀:鼓励开发适老化界面和交互方式,避免技术歧视或信息误导。
  • 个人信息保护:严格限制用户数据采集与使用范围,确保数据处理透明、合法,并强化隐私保护措施。

此外,《办法》还要求服务提供者建立用户投诉和反馈机制,及时处理用户诉求,提升服务质量。

安全治理与技术支撑

为防范潜在安全风险,《办法》设立多项制度以强化安全治理和技术支撑:

  1. 安全评估制度:拟人化互动服务上线前需进行安全性评估,确保符合国家相关标准。
  2. 算法备案机制:服务提供者需向主管部门备案所使用的算法模型,便于监督与追溯。
  3. 沙箱平台建设:推动建设人工智能沙箱安全服务平台,允许企业在可控环境中测试技术应用,降低现实风险。

这些措施有助于在保障技术进步的同时,实现风险的动态管理与防控。

影响与展望

《办法》的出台标志着我国在人工智能拟人化互动服务领域的监管体系日趋完善,将对行业产生深远影响。

  • 对企业而言,需在合规框架下优化技术开发路径,强化安全责任意识。
  • 对社会公众,特别是青少年和老年人群体,将获得更有保障的服务体验。
  • 对监管体系,将推动多部门协同治理模式的形成,为未来人工智能相关立法积累经验。

国家网信办相关负责人表示,拟人化互动服务的健康有序发展,需要政府、企业、社会和网民共同参与,营造清朗的网络环境,引导人工智能向上向善。