普利策得主万字起底奥特曼,Anthropic CEO:OpenAI问题就在他身上

根据《纽约客》及《The Information》等媒体的报道,由普利策奖得主Ronan Farrow和Andrew Marantz联合撰写的一篇长达万字的调查文章,深入揭示了OpenAI内部治理、道德争议与商业策略之间的冲突。Anthropic联合创始人兼CEO达里奥·阿莫代伊(Dario Amodei)则在一封内部备忘录中猛烈抨击OpenAI CEO萨姆·奥特曼(Sam Altman),指出其与美国国防部(DoD)的合作是“安全作秀”,并认为OpenAI的问题根源正是奥特曼本人。

OpenAI的权力运作与内部冲突

据调查文章披露,OpenAI内部存在严重的权力集中问题,萨姆·奥特曼在公司治理中扮演了核心角色。他不仅主导了关键决策,还被指责在处理与员工、投资者和政府机构关系时具有操控性。

  • 奥特曼被Ilya Sutskever等人在内部备忘录中指控“说谎”和“操纵员工”。
  • 他曾推动与军方合作,但并未充分向公众或员工披露合作细节。
  • OpenAI的董事会治理模式也被质疑缺乏透明度,导致内部信任危机。

阿莫代伊作为OpenAI早期成员之一,曾与奥特曼共同创立该公司,后因理念分歧出走并创立Anthropic,强调“安全优先”的AI开发路径。

Anthropic与美国军方的谈判破裂

Anthropic与美国国防部的合同谈判在上周破裂,主要原因是该公司拒绝接受军方提出的“无限制使用AI”的条款。阿莫代伊在内部备忘录中详细解释了这一立场:

  • Anthropic要求国防部承诺不使用其AI进行国内大规模监控自主武器开发
  • 美国国防部拒绝此类限制,坚持“AI可用于任何合法用途”的条款。
  • 最终,OpenAI与国防部达成了协议。

普利策得主万字起底奥特曼,Anthropic CEO:OpenAI问题就在他身上

阿莫代伊称OpenAI的这份合同“毫无原则”,并指出奥特曼试图通过公关手段将合作“洗白”为道德合规,但实际上缺乏实质性约束。他批评奥特曼“伪装成调解者和交易撮合者”,实则为了公司利益牺牲道德立场。

OpenAI的回应与公众反应

面对质疑,OpenAI在其官方博客中回应称:

  • 与国防部的合作合同明确排除了AI用于“国内大规模监控”或“非法目的”。
  • 国防部已确认这些用途不在“合法用途”范畴内。

然而,阿莫代伊并不买账,认为这种说辞是“彻头彻尾的谎言”,并强调:

  • OpenAI的说法并不能阻止国防部在法律边缘使用AI。
  • 公众对这种“模糊合规”的做法并不买账。

事实上,OpenAI与国防部达成协议后,ChatGPT的卸载量激增了295%,显示出用户对其信任度的下降。与此同时,Anthropic在苹果应用商店的排名上升至第二,部分公众将其视为“道德上的替代选择”。

AI伦理与商业利益的冲突

这场围绕AI伦理的争端反映了AI行业面临的核心挑战:

  • 商业利益与道德责任之间的张力:公司如何在追求增长的同时,确保AI技术不被滥用?
  • 政府与企业的合作边界:AI公司是否应接受军方资金与合作?如何界定“合法用途”?
  • 内部治理与透明度:高层管理者的决策是否应接受员工和公众监督?

阿莫代伊在备忘录中提到,他真正担心的是OpenAI的员工被奥特曼的言辞“误导”,从而影响公司文化与长期战略方向。他强调,Anthropic将继续坚持其“道德优先”的理念。

Anthropic崛起,OpenAI面临挑战

尽管OpenAI一度在公众视野中占据主导地位,但Anthropic近年来迅速崛起:

  • 公司年化收入已达30亿美元,正式反超OpenAI。
  • 推出了性能强劲的AI模型Claude 3,被广泛认为在某些方面优于GPT-4。
  • 在企业客户与开发者社区中建立了“更透明、更安全”的品牌形象。

这场与军方合作的争议,或许会进一步削弱OpenAI在公众和员工中的信任度,而Anthropic则有望借助其道德立场获得更多支持。


这场围绕AI伦理、治理与权力的争端,远未结束。它不仅关乎两家公司之间的竞争,更关乎整个AI行业如何在技术进步与社会责任之间找到平衡。