“HBM 之父”金正浩:AI 芯片格局将发生根本性变化,内存会取代 GPU 主角地位
在AI芯片和高性能计算系统快速演进的背景下,内存技术的角色正变得前所未有的重要。特别是高带宽内存(HBM)的出现,不仅极大提升了GPU的性能,也正在推动整个行业发生根本性转变。被誉为“HBM之父”的韩国工程师金正浩曾指出,随着AI计算需求的爆炸性增长,内存将在未来计算架构中取代GPU成为主角。这一观点正在被业界广泛讨论和验证。
HBM技术的崛起与核心作用
- HBM(High Bandwidth Memory)是一种3D堆叠式DRAM技术,具有高带宽、低延迟和小体积的优势。
- 它通过TSV(硅通孔)技术与GPU或AI加速器封装在一起,实现更快的数据传输速度。
- 在AI训练和推理任务中,HBM能够有效缓解“内存墙”问题,显著提升计算效率。
英伟达GPU的HBM演化路径
英伟达是最早将HBM集成到其高端GPU中的厂商之一,其技术路线图清晰地展示了内存升级对性能提升的关键作用:
- H100 GPU采用HBM3内存,带宽高达2TB/s,支持大规模AI模型训练。
- H200 GPU则进一步升级为HBM3E,带宽和容量均有显著提升。
- 这一演进不仅体现在硬件参数上,更推动了AI芯片设计思路的根本性转变。
HBM3E带来的性能飞跃
- HBM3E相比HBM3提供了更高的数据速率和能效。
- 每个引脚速率可达12.8Gbps,整体带宽可超过3TB/s。
- 更高的容量支持也使得处理大模型如LLaMA、GPT等更为高效。
金正浩的预言与行业趋势
金正浩早在多年前就提出,未来的计算系统将以内存为中心,而非以处理器为中心。他认为:
- AI芯片性能瓶颈不再来自计算单元,而是内存带宽和容量。
- 传统GPU架构的扩展性有限,而HBM的持续进化将打破这一限制。
- 随着CXL、UMC等新型内存互连标准的发展,内存将不再只是辅助角色。
预见中的架构转变
- 内存计算融合:未来可能出现将计算逻辑直接集成到内存中的架构。
- 内存驱动的AI加速器:专为AI设计的芯片将围绕HBM等高性能内存构建。
- 软硬件协同优化:算法设计将更加依赖内存访问效率而非单纯算力。
技术变革带来的产业影响
随着内存技术地位的上升,整个AI芯片产业正在经历深刻变化:
- 内存厂商地位提升:SK Hynix、Samsung等HBM制造商获得更多话语权。
- GPU厂商战略调整:英伟达、AMD等厂商加大在内存封装和带宽优化上的投入。
- 新兴架构兴起:如存算一体(PIM)、异构内存系统等逐渐进入实用阶段。
对产业链的冲击
- 供应链更加集中于高端内存制造。
- 数据中心设计开始围绕内存容量与带宽优化布局。
- AI芯片初创公司纷纷将内存作为核心差异化竞争点。
展望未来:内存主导的计算时代
金正浩的愿景正在逐步变为现实,AI芯片的发展重心正从单纯的算力竞赛转向内存效率的优化。未来的计算系统将更注重:
- 内存层级的深度优化
- 数据流与内存访问的智能调度
- 内存与计算单元的高度集成
这一趋势意味着,谁掌握内存技术的制高点,谁就能主导下一代AI芯片的格局。