英国央行行长贝利警告:Anthropic Mythos 模型或构成重大网络安全威胁

背景:Mythos模型意外发现大量漏洞

Anthropic开发的新一代AI模型Claude Mythos Preview在测试过程中展现出了远超预期的代码推理能力。尽管该模型并非专为网络安全目的设计,但其在操作系统、浏览器及其他关键软件中发现了数千个重大漏洞,其中部分漏洞存在时间长达27年。这些漏洞的严重性在于它们尚未被修复,且缺乏标准补丁,使全球软件系统面临潜在风险。

  • 关键漏洞包括:
    • 跨平台系统中的权限提升漏洞
    • 长期未被发现的内存访问错误
    • 逻辑漏洞可能导致数据泄露

这一能力的出现被Anthropic称为“模型自主性增强后的意外结果”,引发监管与安全界的广泛警觉。

贝利的警告与英国监管反应

英国央行行长安德鲁·贝利近日强调,全球金融监管机构必须迅速评估Mythos模型所带来的网络风险。他表示,自2008年金融危机以来,网络攻击已成为金融系统最严峻的非传统风险之一。

英国金融行为监管局(FCA)、财政部与国家网络安全中心(NCSC)已启动联合紧急磋商机制,计划在未来两周内召集各大银行、保险公司及交易所代表,召开跨市场运营韧性小组会议,通报该模型所暴露的漏洞风险,并制定应急防护方案。

  • 英国监管机构措施:
    • 要求金融机构提交AI使用清单
    • 推动模型在金融场景中的使用前进行安全测试
    • 加强对关键系统供应商的审查

英国央行行长贝利警告:Anthropic Mythos 模型或构成重大网络安全威胁

美国与加拿大同步行动

美国财政部长斯科特·贝森特已于4月7日召集华尔街主要银行高层召开紧急闭门会议,强调此类AI模型可能被黑客用于自动化攻击。美国联邦储备局主席鲍威尔也参与其中,表明AI模型的网络安全威胁已被列入系统性风险评估范畴。

此外,美国联邦存款保险公司(FDIC)已要求国内银行提交所使用AI模型的详细清单及风险评估报告。加拿大央行也在上周与本国金融机构会面,讨论类似应对策略。

  • 全球响应包括:
    • 美国启动“AI网络防御计划”
    • 加拿大建立AI模型使用登记制度
    • 欧盟计划提前发布《AI法案》补充条款,强化高风险模型监管

潜在影响:金融系统稳定性受冲击

若Mythos模型被恶意使用,可能造成以下影响:

  • 数据泄露风险:金融机构核心系统面临被AI自主识别并利用漏洞的可能
  • 交易中断威胁:自动化攻击可能瘫痪关键交易系统
  • 欺诈行为激增:模型可辅助生成高度复杂的钓鱼代码或社会工程攻击手段

据行业估算,修复一个重大软件漏洞平均需15万美元,而数千个漏洞的总修复成本可能超过数亿美元。这不仅对金融机构构成财务压力,也可能引发系统升级带来的短期不稳定。

行业与市场反应

该事件引发了金融市场与科技行业的广泛关注。伦敦证券交易所指数在消息传出当日下跌0.8%,AI相关科技股波动加剧。Anthropic在私募市场的估值被冻结,反映出投资者对其模型潜在风险的担忧。

与此同时:

  • Google DeepMind宣布将AI安全测试预算提升至2亿美元,强化漏洞识别与防御
  • 微软、苹果与谷歌已加入“玻璃翼计划”,利用Mythos进行防御性测试
  • 日本金融厅启动对国内AI使用情况的专项检查

监管科技公司也开始研发“AI对抗AI”系统,试图通过部署专用模型来识别和阻止Mythos类AI可能发起的攻击。

未来监管趋势

随着AI模型能力的指数级增长,金融监管将面临前所未有的挑战。贝利强调,未来AI模型若要在金融系统中部署,必须通过网络安全与系统稳定性双重审查

  • 可能推出的监管措施:
    • 要求AI模型在金融场景中进行漏洞识别能力的“红队测试”
    • 建立AI模型使用授权制度
    • 对模型输出进行实时监控与日志记录

这一事件标志着AI监管从伦理与偏见层面,转向更现实的安全与系统性风险控制。英国或将成为首个设立AI模型网络安全准入标准的国家。