联邦法官:美国政府似乎只是想报复Anthropic,而非为了保护国家安全
这场在美国加州北区联邦法院审理的案件,揭示了AI技术伦理、国家安全与企业自主权之间的激烈冲突。一方是坚持AI安全“红线”的初创公司Anthropic,另一方是要求完全控制权的美国政府,而联邦法官的言论则为这场备受瞩目的争端增添了新的变数。
核心争议:国家安全还是企业报复?
听证会上的焦点在于国防部长皮特·赫格塞思将Anthropic列为“供应链风险”的决定是否合理。法官Rita Lin对此提出了尖锐质疑,她指出该标签通常适用于可能破坏美国系统的“美国对手”,而非一家本土科技公司。
Lin法官在听证会上表示:“国防部完全可以停止使用Claude,但他们似乎不止于此,因为他们试图报复Anthropic。”这一表态直接呼应了Anthropic的诉讼主张,即政府的行动是对其CEO达里奥·阿莫代(Dario Amodei)拒绝五角大楼“无限制访问”要求的直接报复。
冲突的起源:2亿美元合同的破裂
这场争端的根源在于双方在AI使用政策上的根本分歧。此前,Anthropic曾与国防部签署了一份价值2亿美元的原型合同,Claude模型获准部署于美军机密网络。
然而,随着国防部长赫格塞思发布AI战略备忘录,要求所有AI供应商移除“超出法律要求的限制”,谈判陷入僵局。Anthropic坚持保留两条“不可逾越的红线”:
- 不得用于针对美国公民的大规模监控。
- 不得用于开发或支持完全自主武器系统。
当Anthropic拒绝为了迎合五角大楼的“任何合法用途”而移除这些安全防护措施后,政府采取了强硬立场。
政府的强硬手段与法律反击
Anthropic拒绝妥协后,政府迅速采取了一系列行动:
- 特朗普的社交媒体指令: 特朗普总统曾在Truth Social上发文,要求所有联邦机构停止使用Anthropic的技术,并威胁称:“Anthropic最好给我放聪明点……否则我将动用总统的全部权力让他们服从”。
- 全面封杀令: 司法部代表政府提交文件,誓要通过法律途径将Anthropic产品从所有联邦机构中清除,甚至包括负责艺术资助的非国防部门。
- 政府的辩护理由: 政府代表律师埃里克·汉密尔顿辩称,维持“供应链风险”认定是因为存在“未来风险”,即Anthropic可能在未来以国防部反对的方式更新其模型。
法官Lin在听证会上批评特朗普的行政命令范围过于宽泛,甚至可能影响到国家艺术基金会使用Claude设计网站,这进一步削弱了政府声称的“国家安全”理由的可信度。
科技界与前官员的集体声援
Anthropic的诉讼不仅是一场商业纠纷,更引发了科技界、法律界和国家安全领域的广泛关注,大量机构站出来支持Anthropic。
- 微软的立场: 作为政府承包商,微软明确表示政府的行动带来了“严重的经济影响”。微软在法庭文件中表态:“微软也认为,美国的AI不应用于进行国内大规模监控或在没有人类控制的情况下发动战争。”
- 行业专家的联名: 来自OpenAI和谷歌的37名研究人员和工程师提交了“法庭之友意见书”,警告这种不可预测的政府行为会产生“寒蝉效应”,扼杀行业创新。
- 前国家安全官员的介入: 22名前美军高级官员(包括前中情局局长迈克尔·海登)指出,赫格塞思的行动是对“触怒领导层的私营公司的报复”,并警告这种突然的技术封杀可能使士兵在作战行动中面临风险。
案件的深远影响
此案被称为“历史上与军事领域AI伦理相关的最大的法庭案件”,其结果将直接影响美国AI产业的未来走向。
- 经济打击: Anthropic在诉状中指出,政府的行动已危及公司数亿美元的收入,甚至可能造成数十亿美元的损失。
- 权力边界之争: 案件的核心考验着政府通过合同权力限制AI供应商的边界。究竟是政府还是企业拥有AI应用的最终决定权?
- 行业风向标: 如果政府胜诉,可能意味着任何拒绝政府特定要求的AI公司都将面临类似的封杀风险;反之,如果Anthropic胜诉,将确立企业坚持AI安全伦理准则的法律依据。
目前,案件正在审理中,法官已听取了双方的口头辩论,但尚未做出最终裁决。这场官司的结果,或将重塑AI技术在国防领域的应用规则。