Meta、博通将携手推出业界首个 2nm AI 计算加速器
背景:AI芯片竞赛进入新阶段
近年来,随着生成式AI和大模型的快速演进,对高效算力的需求呈指数级增长。科技巨头纷纷寻求突破,以摆脱对传统GPU供应商英伟达的依赖。谷歌、亚马逊等公司早已布局自研AI芯片,而Meta作为社交与元宇宙领域的领导者,也在加速推进其AI基础设施的自研化进程。
- Meta此前推出的MTIA芯片专注于AI推理任务,尤其是在推荐系统等关键应用中发挥作用。
- 博通作为老牌芯片厂商,凭借其在ASIC(专用集成电路)设计和制造方面的深厚积累,成为Meta的理想合作伙伴。
合作详情:2纳米AI加速器呼之欲出
博通在官方声明中披露,双方正共同打造下一代MTIA芯片,这将是全球首款采用2纳米先进制程工艺的AI计算加速器,预计将在2026年投入部署。
- 技术亮点:
- 基于3.5D XDSiP平台,融合Face-to-Face(F2F)与2.5D/3D-IC整合技术。
- 旨在提升AI推理效率,优化能耗与性能比。
- 产品路线图:
- MTIA 300已部署在Meta的排序和推荐系统中。
- 后续版本将聚焦推理任务,进一步降低延迟、提高吞吐量。
博通还透露,这款定制化SoC将采用内存中心计算架构,HBM(高带宽内存)和HBF(高带宽缓存)将成为核心组件,GPU和CPU可能退居“配角”地位。
影响:重塑AI基础设施格局
此次合作不仅强化了Meta在AI芯片领域的自主能力,也凸显了博通在生成式AI基础设施中的战略地位。
-
对Meta的意义:
- 有助于实现其“持续多吉瓦算力部署”的宏伟目标,第一阶段即达到数吉瓦级别。
- 降低对外部芯片供应商的依赖,提升系统集成与能效控制能力。
-
对博通的利好:
- 绑定Meta、谷歌等大客户,增强其在AI ASIC市场的竞争力。
- 今年以来,博通股价已上涨10%,资本市场对其在AI时代的价值重估持续升温。
行业趋势:生成式AI推动芯片架构变革
AI芯片的设计正从传统GPU主导的计算方式,向以内存为中心的架构演进。这种转变意味着:
- HBM和HBF将成为关键性能瓶颈突破点。
- 计算单元将围绕内存布局,提升数据流动效率。
- 博通与Meta的联合项目,正是这一趋势的前沿实践。
此外,AI数据中心(AIDC)的建设也不再仅关注散热或供电效率,而是转向整体系统优化与稳定运行,避免因单点故障导致整条生产线停摆。
展望:未来合作与部署规划
Meta CEO马克·扎克伯格表示,此次2纳米AI芯片的推出只是“第一阶段”,未来几年双方计划进一步扩大部署规模。
- 2027年及以后,Meta将推动更大规模的AI算力基础设施。
- 博通 CEO陈福阳宣布不再寻求连任Meta董事会成员,或暗示其将更专注于博通在AI芯片市场的独立战略。
随着博通与Meta、OpenAI、谷歌、Anthropic等科技巨头的多方合作深化,AI芯片生态系统正从单一GPU主导转变为多元架构竞争的新格局。