英特尔联手 SambaNova 推出异构 AI 推理硬件解决方案,结合三种处理器
背景:AI 推理成为新战场
自 2022 年底 OpenAI 推出 ChatGPT 以来,AI 基础设施进入了快速发展阶段。英伟达的 GPU 长期占据训练市场的主导地位,但随着大模型逐渐进入企业级部署,推理市场成为各大硬件厂商争夺的新焦点。
- 企业对低延迟、高吞吐量、高性价比的 AI 推理方案需求日益增长。
- 英特尔作为传统数据中心霸主,近年来收入持续下滑,亟需在 AI 芯片市场打开新局面。
- SambaNova 作为 AI 芯片初创公司,拥有专为推理优化的硬件架构,正寻求通过产业合作扩大市场影响力。
合作详情:构建异构 AI 数据中心
根据合作协议,英特尔与 SambaNova 将共同打造下一代异构 AI 推理基础设施,涵盖硬件、软件与市场推广多个层面的深度整合。
技术层面:
- 整合三种处理器:方案结合英特尔 Xeon CPU、GPU 和 SambaNova 自研 AI 专用芯片(如 SN50),构建异构计算平台。
- 优化 AI 推理性能:面向大型语言模型和多模态模型进行推理优化,强调低延迟与高吞吐。
- 统一软件栈支持:通过统一软件栈实现硬件之间的高效协同,简化部署与管理。
商业层面:
- 渠道整合:通过英特尔的全球企业、云服务商与系统集成商网络进行联合销售与营销。
- 生态共建:合作不仅限于技术层面,还包括与软件供应商、系统集成商的生态合作,提升整体解决方案的落地效率。
- 融资支持:英特尔资本参与 SambaNova 的 E 轮融资,进一步巩固双方合作关系。
新产品发布:SambaNova SN50 与 SambaRack SN50 系统
在合作宣布的同时,SambaNova 正式发布了其新一代 AI 推理芯片 SN50 及其配套系统 SambaRack SN50。
SN50 性能亮点:
- 低延迟、高吞吐:适用于 AI 代理、代码生成、多模态应用等实时性要求高的场景。
- 成本优势明显:据称可将企业总体拥有成本(TCO)降低至原来的三分之一。
- 性能对比英伟达:在 Meta 的 Llama 3.3 70B 等模型测试中,SN50 的最大速度为英伟达 Blackwell B200 的 5 倍,代理推理吞吐量是其 3 倍以上。
应用与部署:
- 企业级部署友好:支持大规模、长上下文 AI 模型,同时控制延迟与能耗。
- 首批客户落地:软银集团将成为首家在日本部署 SambaNova SN50 的客户,用于其下一代 AI 数据中心。
- 2026 年下半年发货:SN50 芯片与系统预计在今年晚些时候开始向客户交付。
战略意义:生态整合与成本效率的较量
英特尔与 SambaNova 的合作,不仅是一次技术联合,更是一种生态与成本的战略布局。
- 弥补英特尔在 AI 推理芯片的短板:SambaNova 提供的专用推理芯片填补了英特尔在 AI 专用硬件上的空白。
- 绕开与英伟达硬碰硬的竞争:在训练芯片领域,英伟达仍占主导地位。英特尔选择在推理市场发力,是一条更具现实意义的突围路径。
- 推动异构计算成为主流:随着 AI 工作负载多样化,单一架构难以满足所有需求,异构计算正成为数据中心的新常态。
未来展望:从单一 GPU 到多元架构
此次合作释放出一个重要信号:AI 基础设施正从“GPU 主导”的单一时代,逐步向“多元推理架构”演进。
- 生态整合是胜负关键:性能之外,如何快速构建从硬件到软件的完整生态系统,成为影响市场成败的关键。
- 推动 AI 商业化落地:企业需要的不仅是技术先进,更是能实现商业闭环的解决方案。
- 探索从边缘到云端的全链路 AI 基础设施:英特尔和 SambaNova 的合作可能影响未来几年 AI 计算架构的整体走向。
“AI 竞争的重点,已经不再是谁能训练出最大模型,而是谁能用即时响应、永不卡顿的 AI 代理点亮整个数据中心,并用可控成本把 AI 从一项实验变成云端最赚钱的引擎。” —— Rodrigo Liang,SambaNova CEO