阿里千问 Qwen3.6-35B-A3B 开源发布:30 亿激活参数实现顶尖智能体编程能力

千问3.6系列通过30亿激活参数实现了高效推理和强大的编程能力,尤其在智能体和工具调用方面表现突出。

背景

近年来,大规模语言模型(LLM)在多个领域取得了突破性进展。阿里巴巴通义实验室持续深耕AI大模型研发,继Qwen系列成功发布后,推出了新一代开源模型Qwen3.6,其中Qwen3.6-35B-A3B因其在小型MoE架构下表现出类拔萃的能力而备受关注。该模型不仅在参数规模上做了优化,还引入了全新的“混合推理”模式,为开发者和企业提供了更高效、灵活的解决方案。

  • 通义千问系列持续迭代,提升智能任务处理能力
  • 模型设计兼顾性能与资源效率,适用于更广泛的应用场景
  • 重点提升编程、智能体与工具调用能力

模型详情

Qwen3.6系列包含多个模型版本,满足不同计算需求和场景:

阿里千问 Qwen3.6-35B-A3B 开源发布:30 亿激活参数实现顶尖智能体编程能力

  • Qwen3-235B-A22B:2350多亿总参数,220多亿激活参数,适用于复杂任务
  • Qwen3-30B-A3B:300亿总参数,30亿激活参数,轻量但性能优越
  • 六个Dense模型:包括Qwen3-32B等,适用于需要稳定输出的场景

其中,Qwen3.6-35B-A3B作为小型MoE模型,激活参数仅为Qwen-32B的10%,却在多个基准测试中展现出更优表现。其核心优势在于:

  • 采用了MoE(Mixture of Experts)架构,实现资源动态分配
  • 引入“混合推理”模式,兼顾推理速度与质量
  • 在消费级硬件上可实现接近服务器级性能(约30 tokens/秒)

性能提升与技术亮点

Qwen3.6相比上一代模型,在多个关键能力上实现跃升:

  • 编程能力显著增强:支持多语言代码理解与生成,代码准确性与执行效率大幅提升
  • 智能体能力提升:模型可自主处理多步骤任务,具备更高效的决策与任务调度能力
  • 工具调用能力优化:集成外部工具API,提升与现实世界服务的交互能力

此外,Qwen3.6-35B-A3B在复杂任务中也表现出色,克服了传统小型MoE模型在多步推理中的短板,成为轻量级模型中的佼佼者。

社区与应用场景

此次开源进一步推动了AI模型的普及和应用落地:

  • 开发者可在Hugging Face、ModelScope等平台获取模型
  • 适用于代码辅助、自动化任务处理、低资源部署环境等场景
  • 企业可基于该模型构建定制化的智能助手、自动化服务系统

通义App和网页版(tongyi.com)已全面上线Qwen3系列模型,用户可直接体验其强大的智能体和编程能力。

未来展望

Qwen3.6系列的发布标志着大模型在性能与效率之间的进一步平衡。随着更多开发者和企业采用该模型,预计将推动AI在自动化编程、智能任务处理和个性化助手等领域的广泛应用。未来,阿里通义实验室将继续优化模型架构、提升推理效率,并拓展更多行业应用场景。

  • 更多版本将持续推出,完善Qwen3生态体系
  • 计划提升模型跨语言、跨模态能力
  • 推动开发者社区共建共享,加速AI技术落地