刚刚,OpenClaw最猛升级!底层架构大换血,全网等了9天
经过长达9天的沉寂,OpenClaw终于在近日发布了代号为「2026.3.22-beta.1」的重大更新。这次升级被开发者Peter Steinberger称为“史上最猛”,不仅带来了底层架构的彻底换血,更在安全、模型生态和交互体验上实现了全方位进化。对于全网等待已久的用户而言,这不仅是一次简单的版本迭代,而是一个新时代的开始。
插件架构大重构:旧时代正式翻篇
本次更新的核心,在于对插件系统的“断舍离”式重构。官方直接废弃了旧有的 openclaw/extension-api,没有任何兼容层或过渡期,彻底切断了与旧插件的联系。取而代之的是全新的模块化接口 openclaw/plugin-sdk/*。
与技术架构升级同步的,是插件分发生态的重大变革。系统默认安装源从通用的NPM切换为官方维护的ClawHub。这一改变旨在解决NPM源质量参差不齐、恶意代码注入风险高的问题,为用户提供审核更严、来源更可控的插件市场。同时,新版增强了对Claude、Codex、Cursor等主流开发工具插件的发现与自动安装支持,并能将外部技能自动映射到OpenClaw体系中。

安全防护大升级:封堵致命漏洞
安全是本次更新的另一重头戏,新版直接封堵了十多个高危漏洞。
针对Windows用户,系统新增了严格的拦截机制,封禁了 MAVEN_OPTS、GRADLE_OPTS 等JVM注入路径以及 GLIBC_TUNABLES 利用通道。同时,修复了利用不可见韩文字符(Hangul Filler)伪装审批提示的欺骗漏洞,确保操作者看到的是真实的命令内容。
在服务器资源保护方面,新版大幅收紧了预认证请求的限制:将Body读取限制压缩至64KB/5秒,并限制了单IP的并发请求数,有效防御DDoS和资源耗尽攻击。对于公网部署用户,官方强烈建议甚至要求必须更新。
模型阵营扩张与体验打磨
在模型生态上,OpenClaw迎来了大幅扩容。OpenAI默认模型正式切换至GPT-5.4,并预置了对GPT-5.4-mini和nano的前向兼容支持。MiniMax系列升级至M2.7,合并了API与OAuth入口,大幅降低了配置复杂度。更引人注目的是,Anthropic Vertex正式接入,允许用户通过Google Vertex AI直接调用Claude模型,同时xAI的Grok、智谱的GLM 4.5/4.6以及Mistral的定价元数据均完成了同步更新。
在用户体验层面,更新同样细致入微:Android端全面支持跟随系统的深色模式;UI新增圆角自定义滑块;Telegram支持自动生成论坛标签和静默错误回复;长对话引入了智能压缩机制。新增的 /btw 命令允许用户在会话中随时插入“旁白问题”,AI会快速回答而不影响主会话上下文,极大提升了交互的灵活性。
生态博弈与平台化之路
这次史诗级更新并非没有代价。微信官方ClawBot插件在更新后仅存活72小时便宣告失效,原因在于其代码写死了已被删除的旧版SDK路径,且无兼容方案。这一插曲不仅揭示了AI生态快速迭代中平台与第三方开发者的适配博弈,也标志着OpenClaw正式进入了“规范优先”的平台化阶段。
从断更9天的沉默,到一举推出涵盖架构重构、安全加固、模型扩容和体验优化的庞大更新,OpenClaw正在从单一工具向集成化的AI操作系统加速进化。随着ClawHub生态的完善和底层架构的稳固,这只“龙虾”正在成长为支撑未来AI应用的重要基础设施。