工信部等十部门联合印发《人工智能科技伦理审查与服务办法(试行)》

工业和信息化部等十部门联合印发的《人工智能科技伦理审查与服务办法(试行)》,是我国首次系统性制定人工智能科技伦理审查与服务的规范性文件。该《办法》从伦理审查的实施原则、责任主体、重点审查内容到服务体系的构建,为人工智能科技活动的合规发展提供了制度保障。

《办法》出台背景

近年来,随着人工智能技术的快速发展,其在医疗、金融、交通、安防等多个领域的应用日益广泛。然而,技术的快速迭代也带来了一系列伦理挑战,如算法偏见、隐私泄露、自动化决策失控等问题,引发了社会对AI技术滥用和失控的担忧。为规范人工智能科技活动,防范伦理风险,工信部等十部门联合制定并印发《办法》,旨在将伦理治理嵌入科技研发和应用的全流程中。

此外,国际上多个国家和地区已陆续出台AI伦理治理框架,如欧盟的《人工智能法案》、美国的AI伦理准则等,我国此举也是顺应全球科技治理趋势,提升国际话语权的重要举措。

核心原则与责任主体

《办法》强调,人工智能科技活动应将伦理要求贯穿全过程,遵循以下核心原则:

  • 增进人类福祉
  • 尊重生命权利
  • 坚持公平公正
  • 合理控制风险
  • 保持公开透明
  • 保护隐私安全
  • 确保可控可信

从事人工智能科技活动的单位,包括高校、科研机构、医疗卫生机构、企业等,均为本单位人工智能伦理审查管理的责任主体。这些单位需设立人工智能科技伦理委员会,成员应涵盖人工智能技术、应用、伦理、法律等多领域专家,确保审查的全面性和专业性。

《办法》还鼓励具备条件的单位开展人工智能科技伦理管理体系的认证工作,以推动行业整体规范发展。

工信部等十部门联合印发《人工智能科技伦理审查与服务办法(试行)》

审查重点内容

人工智能科技伦理审查需围绕多个维度展开,具体包括:

人类福祉与社会价值

  • 评估科技活动是否具备科学和社会价值
  • 研究目标是否有助于提升人类福祉、促进社会可持续发展
  • 是否权衡了风险与收益,避免潜在危害

公平公正与算法歧视

  • 审查训练数据选择标准
  • 检查算法、模型、系统设计是否合理
  • 是否采取措施防止偏见歧视和算法压榨
  • 是否保障资源分配、机会获取和决策过程的客观性与包容性

可控性与可信性

  • 确保模型和系统具备鲁棒性,以应对复杂环境和极端情况
  • 确认使用者能够控制、指导和干预模型或系统的基本操作
  • 审查是否制定持续监测和突发状况处理预案

透明性与可解释性

  • 是否合理披露算法、模型、系统的用途、运行逻辑和潜在风险
  • 是否采用技术手段增强系统的可解释性,提升公众信任

责任追溯与隐私保护

  • 审查数据、算法、模型等各环节的信息记录与追踪机制
  • 确认科技人员是否具备相应资质
  • 检查数据收集、存储、加工、使用等环节是否采取隐私保护措施

伦理专家复核清单

为聚焦高风险领域,《办法》配套发布了“需要开展科技伦理专家复核的人工智能科技活动清单”。当前纳入清单的包括以下三类:

  1. 对人类主观行为、心理情绪和生命健康具有较强影响的人机融合系统的研发;
  2. 具有舆论社会动员能力和社会意识引导能力的算法模型、应用程序及系统的研发;
  3. 面向存在安全、人身健康风险等场景的具有高度自主能力的自动化决策系统的研发。

该清单将根据技术发展和监管需要动态调整,以适应人工智能技术演进的节奏。

影响与未来展望

《办法》的发布将对我国人工智能行业发展产生深远影响:

  • 企业、科研机构需建立伦理审查机制,增加合规成本,但也提升公众信任与技术可信度;
  • 高风险AI项目将面临更严格的专家复核与监管,有助于防范重大伦理和安全隐患;
  • 推动建立伦理审查服务体系,如地方与专业机构设立伦理审查服务中心,提升行业治理能力;
  • 为未来制定正式的人工智能伦理治理法规打下基础,形成可复制、可推广的制度经验。

总体来看,《人工智能科技伦理审查与服务办法(试行)》是我国人工智能治理体系建设的重要一环,标志着从技术发展导向向责任发展导向的转变。随着人工智能的广泛应用,如何在技术创新与伦理约束之间找到平衡,将成为持续关注的焦点。