Anthropic成立PAC:厨子不看菜谱看上兵法

Anthropic近期在美国联邦选举委员会(FEC)注册了一个名为“AnthroPAC”的政治行动委员会,该PAC的资金来源于员工自愿捐款,每人每年上限为5000美元。此举意味着这家以“安全派”自居的AI公司正式进入选举资金游戏,试图通过直接捐款支持候选人,来影响未来的AI监管政策、政府采购准入及技术治理框架。

背景:从AI安全倡议到政治博弈

Anthropic自成立以来,一直以AI伦理与安全为核心品牌定位,主张建立稳健的模型治理机制,避免AI被用于大规模监控或完全自主武器系统。这种立场虽然赢得了部分公众和开发者的好感,但也带来了与美国国防部的冲突。2024年3月,美国国防部将Anthropic列为“供应链风险”企业,限制其参与部分军事和国家安全相关的AI合同。此举不仅让Anthropic失去了进入高价值政府市场的通道,也引发了公司对政策决策机制的重新审视。

与此同时,Anthropic正在测试新一代AI模型Claude Mythos(内部代号Capybara),其在推理、编码和网络安全能力上远超现有系统。然而,Capybara的潜在风险也引发了内部担忧,尤其是其可能被恶意用于自动化网络攻击。公司决定优先向网络安全防御机构开放早期访问,以缓解政策层面的疑虑。

PAC的运作与目的

根据注册文件,AnthroPAC由公司财务主管Allison Rossi签署成立,其主要目标是在2026年中期选举中支持两党候选人。PAC的资金来源为员工自愿捐款,每人每年最多5000美元。这种方式符合美国联邦法律对企业政治捐赠的限制要求,即企业不能直接从公司账户向候选人捐款,但可以通过员工筹资设立PAC进行政治投资。

企业PAC与政策倡议组织(如501(c)(4))的最大区别在于其可以直接向候选人提供竞选资金,而不仅仅是通过广告或宣传间接影响选情。这意味着,AnthroPAC将在选举中扮演更“直接”的角色,帮助与Anthropic利益一致的候选人赢得席位,从而影响未来AI监管政策、政府采购标准、以及关键技术的出口管制等议题。

Anthropic成立PAC:厨子不看菜谱看上兵法

此外,Anthropic早在今年2月就已向名为“Public First Action”的501(c)(4)组织捐赠2000万美元。该组织专注于AI透明度、安全护栏、联邦治理框架等议题。与AnthroPAC不同的是,Public First Action不能直接向候选人提供资金,而是通过政策倡导、公众教育和选举动员间接施加影响。

政治博弈背后的商业逻辑

Anthropic此次成立PAC的动机清晰:AI行业正面临一系列关键政策节点,而这些决策最终将由拥有预算与采购权的政府官员做出。因此,仅靠模型性能和伦理声明难以赢得政策主动权。

公司目前正全力推进企业AI市场布局,尤其是Claude Code和Cowork代理工具等产品。这类工具的目标客户为大型企业、政府机构及安全敏感行业。这些客户对AI的采纳不仅取决于模型性能,更受到监管合规性、政策风向与政府采购限制的影响。

例如,美国国防系统和公共部门的AI合同通常金额巨大。类似Palantir等公司,政府合同收入占比可高达50%,单个项目金额可达数亿美元。一旦被认定为“供应链风险”,AI公司不仅失去当前合同,还可能在未来数年内被排除在敏感项目投标池之外。

这正是Anthropic急于扭转政策风向的原因之一。通过PAC介入选举,公司试图确保未来政府中能有更多理解其立场、支持其进入采购体系的官员当选。

对AI行业的潜在影响

Anthropic并非首家介入选举的AI公司。据外媒统计,2026年中期选举中已有超过1.85亿美元与AI相关的资金投入。其中,超级PAC如“Leading the Future”和“Innovation Council Action”已经分别筹集1.25亿美元和超过1亿美元,分别聚焦于算力基础设施与联邦监管框架。

在德州和北卡罗来纳州的20场选举中,获得AI相关资金支持的候选人仅有1人落败,其余均成功晋级或当选。这表明AI资金在政治选举中已开始显现其“政策杠杆效应”。

Anthropic此次成立PAC,标志着AI公司开始从幕后走向台前,直接通过资金支持候选人来塑造政策环境。这种策略不仅将影响AI监管框架的制定,也可能改变政府与AI企业之间的互动模式,推动更偏向“产业利益导向”的政策形成。

未来展望与风险

从战略角度看,Anthropic正试图构建“政策+产品+国际关系”三位一体的护城河。近期,公司与澳大利亚政府签署AI安全与研究谅解备忘录,承诺共享模型能力、风险研究数据,并参与联合安全评估。这显示其不仅在美国本土布局政策影响力,在国际层面也开始加强合规与信任建设。

但与此同时,成立PAC也可能带来公众信任的考验。作为一个曾高调宣扬AI安全与中立的企业,直接介入政治捐款可能会引发关于其“政策游说”与“商业利益”之间界限的质疑。

若Anthropic不能在政策倡导和商业行为之间取得平衡,其“安全派”形象或将受到削弱,甚至可能引发新一轮监管审查或公众反弹。然而,从现实政治的角度来看,此举或许是其在AI政策博弈中“入场券”的关键一步。