“龙虾”能否养的背后,AI全球治理难题何解?

当一款名为OpenClaw(俗称“龙虾”)的开源AI智能体软件,以从“能说”到“能做”的跨越式能力引爆互联网时,它投下的不仅是技术变革的石子,更激起了一场关于安全与秩序的巨浪。从普通网友的“养虾”热情,到国家安全机构的密集警告,再到全球各地紧急出台的治理政策,这只“龙虾”成为了透视AI全球治理难题的一面棱镜。它让我们清晰地看到,在通往智能经济时代的快车道上,技术突进的油门与风险防控的刹车,正面临着前所未有的协调挑战。

“养虾”狂欢与生产力跃迁

“养龙虾”的热潮并非空穴来风,它精准地踩在了AI技术由“生成内容”向“执行任务”范式跃迁的关键节点上。

与传统以对话交互为主的大模型不同,OpenClaw被视为进入智能体(Agent)时代的标志。在用户授予权限后,它能像一个“数字管家”或“数字员工”,自动执行复杂的多步骤任务、调用系统资源、批量处理流程。这种从“展示智能”到“交付结果”的质变,让各行各业看到了巨大的生产力解放潜力。

  • 产业爆发:OpenClaw被比作智能经济早期的“原始生产工具”。它不仅直接带火了算力基础设施、边缘计算设备(如迷你主机、NAS)等硬件产业链,更催生了技能商店、提示词优化、安全审计等新的软件服务闭环。业界普遍认为,它将催生一个万亿级的“自动化服务市场”,让个人也能拥有专属的“数字员工”。
  • 政策响应:中国今年的政府工作报告首次提出“打造智能经济新形态”,极大地鼓舞了市场信心。深圳、杭州、南京等多地迅速出台支持“养虾”的政策措施,甚至如深圳龙岗区般提出“零成本启动”,试图打造全球智能体创业首选地。
  • 巨头入局:腾讯、智谱、百度等科技巨头纷纷推出各自的“龙虾”版本或相关服务,力图在这一新兴赛道中抢占先机,进一步降低用户接触前沿AI技术的门槛。

这场狂欢的核心驱动力,是对效率提升和商业模式创新的无限遐想——如果每个人、每家企业都能低成本地拥有自动执行任务的“数字员工”,智能经济的版图将被彻底改写。

“失控”的阴影:超级能力与超级风险

然而,OpenClaw赋予机器的“超级能力”,也直接带来了“超级风险”。当AI从建议者变为执行者,且拥有系统最高权限时,安全威胁便从虚拟世界穿透到了现实系统。

“龙虾”能否养的背后,AI全球治理难题何解?

工信部、国家互联网应急中心等多部门接连发布风险提示,直指OpenClaw在默认或不当配置下的脆弱性。奇安信等安全厂商的报告更是触目惊心:全球暴露在互联网上的OpenClaw实例一度超过23万个,相关的“Skills”(技能模块)中被检出大量高可疑甚至恶意插件,漏洞含量极高。哈佛大学与麻省理工学院的联合研究亦显示,AI智能体在模拟企业环境中仅两周就触发了11起严重安全事件。

具体而言,风险主要体现在三个层面:

  1. 权限失控与越狱:作为系统级的自动化工具,OpenClaw需要最高权限来执行任务。这使其极易成为黑客的“超级后门”,一旦被恶意诱导或配置不当,能轻易突破安全围栏,造成系统被控或全面瘫痪。
  2. 供应链污染:依赖于第三方插件(Skills)来扩展功能是智能体的核心机制,但这同样引入了巨大的供应链风险。一个恶意插件就能窃取用户的密码、加密钱包、API密钥等核心敏感数据,导致“引狼入室”。
  3. 信任边界的模糊:AI的逻辑误判可能引发系统“误伤”。更隐蔽的是,不法分子利用AI依赖海量数据学习的特性进行“投毒”,制造虚假数据操控算法,这在3·15晚会曝光的黑灰产业链中已有体现,直接威胁市场公平与消费者权益。

全球棋局:在博弈中寻找治理平衡

面对“龙虾”掀起的波澜,全球治理正处于一种“撕裂感”中:一边是鼓励创新、抢占产业高地的渴望,另一边是必须正视并遏制潜在系统性风险的紧迫现实。

国际层面,共识正在艰难凝聚。 联合国已决定设立“人工智能独立国际科学小组”和“人工智能治理全球对话”机制,试图基于科学评估建立全球共识。然而,各国治理路径差异明显:

  • 欧盟:倾向于严格立法,通过《人工智能法案》简化部分规则的同时,坚守伦理与安全红线,禁止AI生成色情内容等。
  • 美国:州级立法活跃,关注法律、医疗等敏感领域的应用限制,同时国防部与AI公司(如Anthropic)就军用伦理爆发司法争议,反映出技术使用权与伦理底线的博弈。白宫正试图推动统一的联邦框架,以避免各州立法碎片化。
  • 宣言与跟随:新加坡发布全球首个智能体治理框架,韩国则通过基本法强调支持发展与防范高风险并重。

在中国,探索呈现出“自上而下”与“自下而上”的结合。 既有国家层面将人工智能发展纳入“十五五”规划,推动智能经济新形态;也有地方层面的灵活创新。例如,珠海针对“养虾”发布的“安全十条”,深圳早在2022年就出台的全国首部人工智能产业专项立法,以及广东拟制定省级AI发展促进条例。这些尝试体现了鲜明的“安全与发展并重”理念,旨在通过法治化手段划定红线,引导产业有序发展,而非因噎废食。

破局之道:从被动应对到内生安全

“龙虾”引发的治理难题,根源在于技术演进速度甩开了规则制定的步伐。解决之道不在于简单地封堵技术,而在于构建更具适应性、前瞻性的治理体系,让安全成为AI的“内生基因”。

1. 把认知拉齐,寻求最大公约数。 技术方的激进、用户的猎奇与监管者的审慎,构成了当前治理的认知鸿沟。首要任务是建立跨领域的沟通机制,明确通用的风险评估原则和不可逾越的伦理底线,而非在恐慌与狂热之间摇摆。

2. 创新治理模式,从“硬法”到“软硬兼施”。 针对技术快速迭代的特性,治理需更具弹性。珠海的“安全十条”即是典型,这类指引性的规范既不扼杀应用,又提供了清晰的行为规范。未来应鼓励更多此类灵活的行业标准与最佳实践,与法律、法规形成互补。

3. 强化全生命周期的风险管控。 风险应贯穿智能体的设计、开发、部署、应用全链条。

  • 技术层:推动“默认安全”成为行业标准,如开发更严格的权限控制机制、沙箱隔离技术,以及像360、奇安信等推出的“龙虾卫士”此类安全防护工具。
  • 生态层:建立可信的技能市场(Skill Market),对插件进行严格的安全审计与认证,减少恶意代码的源头污染。
  • 应用层:企业和个人需提升安全意识,遵循“六要六不要”等操作指南,避免将高权限智能体直接暴露于公网,严格区分工作与私人数据环境。

4. 明确责任主体,落实监管效能。 当AI智能体造成实际损害时,开发者、部署者、使用者以及插件提供方的责任如何界定?这需要法律层面提供明确答案,为技术创新划定清晰的责任边界,并要求企业具备可审计、可追溯的自动化执行记录,确保风险发生后有据可查、有责可究。

“龙虾”的故事是一个缩影,它预示着一个由智能体驱动的新经济时代的到来。这个时代充满了巨大的机遇,也伴随着严峻的挑战。如何在激烈的全球技术竞争中,既保持创新的锐度,又筑牢安全的底线,考验着每一个国家、每一个行业、乃至每一个参与者的智慧与远见。想要真正享受到这只“龙虾”的美味,就必须先学会如何安全地“养殖”它。