Anthropic上诉受挫:美法院拒绝阻止美国国防部将其列入黑名单
背景
美国国防部于 2026 年 3 月初将人工智能公司 Anthropic 列入“供应链风险”黑名单,认定其 AI 技术对国家安全构成潜在威胁。这是首次有美国本土私营企业被贴上此类标签,引发广泛关注。
Anthropic 与美国军方曾有深度合作,包括在 2025 年 7 月签署一份价值 2 亿美元的合同,并尝试将其 AI 模型部署至国防部的 GenAI.mil 平台。然而在谈判过程中,双方就模型使用范围产生分歧。国防部希望获得无限制使用权限,尤其在军事用途方面;而 Anthropic 则担忧其技术可能被用于全自动武器系统或大规模监控,因而设限。
案件详情
Anthropic 随后于 2026 年 3 月对美国国防部提起诉讼,指控其列入黑名单的行为是违宪报复,并强调该决定武断、缺乏法律依据。
在案件推进过程中,旧金山联邦法院的一位法官曾于 3 月签发初步禁令,禁止特朗普政府强制执行禁用 Anthropic AI 技术的规定。然而,本周三,华盛顿特区联邦上诉法院驳回了 Anthropic 提出的暂缓执行制裁请求。
法院在裁决中指出,相较于 Anthropic 可能面临的经济损失,国防部在军事冲突期间如何获取关键 AI 技术更具公共利益价值。因此,拒绝在案件正式审查前暂停制裁措施的执行。

法律与利益权衡
-
法院观点:
- Anthropic 的经济损失被认为是“相对有限”的。
- 司法机关倾向于支持国防部在军事敏感技术采购上的自主权。
- 尽管承认 Anthropic 可能遭受不可挽回的损害,但法院强调其损害“主要是经济性的”。
-
Anthropic 的主张:
- 声称被列为供应链风险是特朗普政府对其 AI 模型 Claude 的“报复性打击”。
- 指出该决定缺乏正当程序,并侵犯其言论自由权。
- 但法院认为 Anthropic 未能证明其言论自由在诉讼期间受到了实际压制。
法院同时表示,鉴于案件的重要性,将加快审理进度,以尽快得出最终裁决。
影响与后果
被列入黑名单后,Anthropic 被排除在美国国防部合同之外,国防承包商需证明未在其军方项目中使用 Anthropic 的 AI 模型,如 Claude。
然而,由于旧金山法院此前签发的初步禁令与华盛顿法院的最新裁决存在冲突,目前 Anthropic 仍可继续与其他非国防部的联邦机构合作,短期内其商业影响有限。
此外,Anthropic 最新发布的 Claude Mythos 模型曾引发美国网络安全相关股票暴跌,显示出市场对其技术影响力和安全争议的高度敏感。
公司回应与未来展望
Anthropic 在裁决公布后发表声明,感谢法院“认识到这些问题需要迅速解决”,并坚信最终裁决将认定国防部的供应链风险认定为“非法”。
公司重申其对政府合作的承诺,表示希望通过建设性对话确保 AI 技术在保障国家安全的同时也能为全体美国人民带来益处。
未来,随着案件进入加快审理阶段,Anthropic 与美国军方之间的技术合作与政策博弈将继续成为焦点。这也可能为其他 AI 企业在军事与民用技术界限上的合规问题树立判例。
相关链接: