高盛CEO苏德巍警示:Anthropic旗下Mythos模型发现漏洞能力超人类
背景:AI安全问题日益受到关注
随着AI技术的快速发展,尤其是大模型在编程和系统分析方面的能力不断增强,其潜在的安全隐患开始引发全球监管机构和企业高层的警觉。高盛CEO David Solomon在最近的财报电话会议上特别提到,Anthropic公司开发的AI模型Mythos在自动识别和利用软件漏洞方面表现惊人,甚至在某些任务上已经超越了大多数顶尖人类专家。
Mythos模型的能力与测试结果
根据英国AI安全研究所(AISI)的测试,Mythos AI模型可以执行多达32步的网络攻击模拟,这种复杂程度在过去通常需要经验丰富的安全人员耗费数天时间才能完成,而Mythos可在极短时间内完成。
这一能力引发了对AI被恶意利用的担忧。Anthropic在其官方博客中也坦承:“AI模型在编程能力上已经达到很高水平,发现和利用软件漏洞的能力已经超越除最顶尖人类专家外的所有人。”

高盛的应对措施
苏德巍表示,高盛已经取得Mythos模型,并正在与Anthropic以及网络安全供应商密切合作,以强化自身的防御机制。
高盛目前采取的措施包括:
- 限制AI模型的内部使用范围
- 对模型的输出进行严格审计
- 与监管机构保持沟通,确保符合最新安全标准
此举不仅是为了防范外部攻击,也为了防止模型被内部滥用,造成系统性风险。
全球监管机构的紧急反应
由于Mythos展现出的潜在威胁,美国财政部已迅速召集高盛、摩根大通等华尔街巨头的高层,赴华盛顿进行紧急磋商,探讨AI安全监管框架。
此外,多个国家的网络安全监管机构也开始重新评估AI模型在金融系统中的使用边界,包括:
- AI生成代码的安全审查机制
- AI参与金融系统运维的权限控制
- 建立AI漏洞探测能力的限制性使用标准
影响与未来展望
这一事件凸显了AI在网络安全领域的“双刃剑”特性。一方面,AI可以大幅提升防御能力,快速识别系统弱点;另一方面,它也可能被用于大规模、自动化攻击,对金融、公共安全甚至国家安全构成威胁。
专家指出,未来的AI安全治理将面临几个关键挑战:
- 如何界定AI在漏洞发现和利用中的合法使用范围
- 如何建立国际协作机制,防止AI被用于网络攻击
- 如何提升防御系统,使其能够应对AI驱动的新型攻击手段
苏德巍的警告不仅代表了金融行业的忧虑,也预示着AI安全议题将迅速成为全球科技与政策讨论的核心焦点之一。