Anthropic引发AI国有化论
背景
- AI正从民用技术逐步演变为具有战略意义的国家安全资产。
- 随着其在军事、网络安全等高敏感领域的应用扩展,政府对AI的管控需求日益增强。
- Anthropic作为全球领先的AI公司之一,其最新模型Claude Mythos因其强大的自主网络攻击能力,成为引发此轮讨论的核心。
AI的军事化使用
- 根据美国媒体报道,美军曾在对伊朗的军事打击中使用Anthropic的Claude AI模型,用于识别关键目标和规划战术路径。
- 这标志着AI开始直接介入高风险、高机密的军事行动。
- Anthropic曾试图限制AI模型的使用范围,例如不得用于完全自主武器系统,但与美国政府产生冲突,后者施压要求AI技术的广泛使用。
政府介入的强化趋势
- 美国国防部将Anthropic列为国家安全供应链风险对象。
- 政府曾考虑动用总统权限,适用《国防生产法》以加强对该公司AI技术的管控。
- 这种做法被视为“准国有化”,即通过政府采购合同、法规施压等方式,间接控制AI技术的使用和传播。
Mythos的技术争议
- Anthropic于2025年4月发布的Claude Mythos在软件漏洞检测和网络攻击自动化方面表现出色。
- 专家指出,Mythos一旦被敌对势力获取,其权重数据可能对国家安全构成直接威胁。
- 为防止技术滥用,如“蒸馏”AI模型等手段,Anthropic选择不公开相关技术细节,这一做法受到部分政策专家的肯定。
对中美AI竞争的影响
- 美国记者托马斯·弗里德曼在《纽约时报》专栏中称,Mythos可能与核武器问世一样,成为“重要的根本性转折点”。
- 他建议在中美高层会谈中,将AI的国有化与安全管控问题列为重要议题。
- 前OpenAI研究员丹尼尔·科科塔伊洛在2025年发表的《AI 2027》论文中预测,到2027年AI将可能发展为超越人类的“超智能”,美国政府或将模仿曼哈顿计划模式,对关键AI企业实施更强的监管。
展望与挑战
- AI技术越强大,政府对其监管和控制的力度也越大。
- 未来几年,围绕AI的国家间竞争、技术泄露风险以及伦理安全问题将持续加剧。
- 企业在推动技术进步的同时,如何在国家安全、商业利益与开放创新之间取得平衡,将成为全球AI行业面临的共同挑战。