Anthropic成立PAC:厨子不看菜谱看上兵法了

背景:从“安全派”到政策介入者

Anthropic一直以来在人工智能领域被看作是“安全派”和“中立派”的代表,强调AI模型的责任使用、透明度与伦理边界。然而,近期的一系列事件使其政治策略出现明显转向:

  • 上月,美国国防部将Anthropic列为“供应链风险”企业,限制其参与部分军事合同。
  • 该限制源于Anthropic与五角大楼在AI模型使用条款上的分歧,公司明确表示不接受将AI用于大规模监控或完全自主武器系统。
  • 作为回应,Anthropic于3月9日在加州和华盛顿州分别对美国政府提起诉讼,指控其供应链风险认定违法且具有报复性质。

这一系列冲突让Anthropic意识到,仅靠技术和理念无法在AI监管与政府采购中掌握主动权,必须通过更直接的政治介入方式影响决策。

PAC设立详情:员工自愿捐款,目标明确

  • 企业PAC由公司财务主管Allison Rossi签署成立。
  • 资金来源为员工自愿捐款,每人每年上限为5000美元。
  • 该PAC将在2026年中期选举中支持两党候选人,目标是通过捐款影响选举结果,进而影响政策制定。
  • 与此前捐赠2000万美元的Public First Action不同,此次成立的AnthroPAC属于企业政治行动委员会,可以直接向候选人提供竞选资金。

在美国选举体系中,企业PAC是一种合法、常见的方式,用于科技公司等大型企业间接支持与产业利益相关的政治人物。目前FEC登记的PAC数量已达数千,大型科技公司几乎都设有类似机构。

投资与模型进展:技术跃进背后的现实压力

Anthropic在技术和融资方面持续高歌猛进:

  • 最新一轮融资达到300亿美元,公司估值升至3800亿美元。
  • 正在测试新一代模型Claude Mythos(内部代号Capybara),其推理、编码与网络安全能力远超当前版本Claude Opus 4.6。
  • 由于模型在网络安全方面表现过于突出,Anthropic计划优先向防御机构开放早期访问,而非全面发布。

尽管技术实力强劲,但新模型的潜在风险也引发争议。如果被恶意使用,其自动化漏洞扫描能力可能成为网络攻击工具。这也促使Anthropic更加注重政策层面的风险控制与形象塑造。

全球布局与政策博弈:不只是美国市场

除了在美国本土加强政策影响力,Anthropic也在拓展全球政府合作:

  • 近日与澳大利亚政府签署AI安全与研究谅解备忘录。
  • 承诺共享经济指数数据、模型能力评估与风险研究成果,并参与联合安全评估。

这些举措表明,Anthropic不仅希望影响美国AI政策,也在积极布局全球监管环境,确保其技术和安全理念被广泛采纳。

战略意图:争夺AI治理话语权

Anthropic此次成立企业PAC,核心目标是:

  • 在AI监管规则制定前,构建自己的政策影响力网络。
  • 通过政治捐款争取与企业利益相符的立法者与政策制定者。
  • 在政府合同市场中打破“供应链风险”带来的限制,恢复参与高预算国防和公共服务项目的机会。

当前AI行业正面临三大政策焦点:

  1. 算力基础设施:数据中心、芯片供应与电力支持;
  2. 监管框架:模型责任、数据使用边界与安全护栏;
  3. 政府采购:能否进入国防、情报和公共服务领域的高预算项目。

据外媒统计,AI相关资金在2026年中期选举中已累计投入超过1.85亿美元,其中支持AI友好候选人的PAC表现尤为突出,在德州和北卡罗来纳州的20场选举中仅1人落选。

Anthropic此举,正如其在声明中所暗示:技术本身无法决定AI的未来,真正掌握话语权的是那些控制预算、采购与政策制定的权力中枢。