美国AI,怎么也搞实名制了?
背景:AI监管趋势与实名制的引入
近年来,全球范围内对人工智能的监管逐步加强,尤其在深度伪造(Deepfake)、数据透明度与用户安全方面。尽管美国联邦政府尚未出台综合性AI法案,但各州在AI治理方面走在前列。2025年,Anthropic公司宣布对其AI平台Claude实施身份验证制度,成为美国首个推行实名制的主流AI服务提供商。
此举引发热议,主要因为AI平台通常以匿名性为特征,用户可在不暴露身份的前提下使用服务。而Claude的新规意味着用户在使用AI进行聊天、生成内容甚至编写代码前,必须提交身份信息。这被视为AI平台在隐私与安全之间做出的权衡,也反映了AI治理的全球趋势。
推行实名制的几个关键节点:
- 2025年7月,白宫发布《美国AI行动计划》,强调减少监管、鼓励创新,但并未阻止企业自主加强安全措施。
- 2025年9月,加州通过《SB 53法案》,要求前沿AI模型开发者提升透明度。
- 2025年10月,Anthropic宣布在Claude平台上推行实名认证机制。
详情:Claude平台实名制的具体内容
根据Claude官方发布的公告,新身份验证政策主要适用于商业用户和高风险应用场景下的AI使用。其目的包括:
- 防止AI被用于欺诈、虚假信息传播等非法活动。
- 增强平台责任追溯能力。
- 提升企业客户在AI使用中的合规信心。
实名认证要求包括:
- 用户需提供政府颁发的身份证明(如驾照、护照)。
- 企业用户需提交法人证明及税务信息。
- 验证过程由第三方机构完成,Anthropic本身不存储原始证件图像。
- 匿名用户仍可访问基础功能,但无法使用高级API和模型训练服务。
此举虽为自愿性措施,但若用户不进行实名认证,将无法使用平台的核心AI功能,实质上形成了强制性实名机制。
背后的治理理念对比
Claude推行实名制的决定被一些评论者称为“美国民间网信办”行为,意指其模仿了中国在互联网治理方面的做法。不同之处在于:
- 中国AI实名制:由政府主导,依据《生成式人工智能服务管理暂行办法》,对AI平台进行统一监管,强调“服务提供者责任”与“用户真实身份验证”。
- 美国AI实名制:由企业自行决定,更多出于风险防控和市场信任考虑。Anthropic的实名认证属于其内部政策,并未直接来自联邦法律。
这反映出中美在AI治理路径上的分野。中国通过国家立法推动监管,而美国则更多依赖企业自律与州级立法相结合。
代表性州级AI立法:
- 加州《AB 2013法案》:2026年生效,要求公开生成式AI的训练数据。
- 《SB 942法案》:同样于2026年实施,要求AI内容进行标识并提供检测工具。
- 《SB 53法案》:强调透明度与事件响应机制,适用于使用超大规模算力训练模型的AI开发者。
影响:AI行业生态与用户习惯的转变
Anthropic此举在行业内引起连锁反应。一方面,企业用户对此表示欢迎,认为有助于提升AI应用的合法性与可信度;另一方面,部分开发者与普通用户则表示担忧,认为这将削弱AI的自由与匿名性。
积极影响:
- 增强平台安全性:减少滥用AI生成虚假身份、伪造文档、恶意钓鱼等行为。
- 促进AI商业化信任机制:有助于企业客户在合规审查中使用AI工具。
- 推动监管与自律结合:实名制成为平台自我约束、回应政府与社会压力的手段之一。
潜在问题:
- 隐私风险增加:用户身份数据一旦泄露,可能带来更广泛的安全隐患。
- 开发者自由受限:部分程序员反馈,在写代码或测试AI模型时,实名认证显得“过于繁琐”。
- 监管责任模糊化:企业自行推行实名制是否替代政府监管?是否存在权力真空?
未来展望:实名制是否会成为全球AI平台标配?
Claude的实名制并非孤例。欧盟在《EU AI Act》中也对高风险AI系统提出了更严格的身份与行为追踪要求。中国、美国与欧盟在AI治理路径上虽有差异,但在实名制、内容标识与训练数据透明度方面,逐渐形成共识。
未来,随着更多国家和地区对AI监管提出更高标准,AI平台或将普遍要求用户实名认证。尤其在以下场景中,实名机制可能成为常态:
- 商业与金融场景:用于生成法律文件、财务分析、客户交互等。
- 政府与教育领域:确保AI生成内容的真实性和可追溯性。
- 高风险模型使用:如涉及图像生成、语音克隆、内容创作等。
Anthropic作为AI领域的领先企业之一,其在身份验证方面的探索或将为其他平台提供范本。与此同时,如何在保护用户隐私与提升平台安全之间取得平衡,将成为全球AI治理的重要议题。