“HBM 之父”金正浩:AI 芯片格局将发生根本性变化,内存会取代 GPU 主角地位

在AI芯片和高性能计算系统快速演进的背景下,内存技术的角色正变得前所未有的重要。特别是高带宽内存(HBM)的出现,不仅极大提升了GPU的性能,也正在推动整个行业发生根本性转变。被誉为“HBM之父”的韩国工程师金正浩曾指出,随着AI计算需求的爆炸性增长,内存将在未来计算架构中取代GPU成为主角。这一观点正在被业界广泛讨论和验证。

HBM技术的崛起与核心作用

  • HBM(High Bandwidth Memory)是一种3D堆叠式DRAM技术,具有高带宽、低延迟和小体积的优势。
  • 它通过TSV(硅通孔)技术与GPU或AI加速器封装在一起,实现更快的数据传输速度。
  • 在AI训练和推理任务中,HBM能够有效缓解“内存墙”问题,显著提升计算效率。

英伟达GPU的HBM演化路径

英伟达是最早将HBM集成到其高端GPU中的厂商之一,其技术路线图清晰地展示了内存升级对性能提升的关键作用:

  1. H100 GPU采用HBM3内存,带宽高达2TB/s,支持大规模AI模型训练。
  2. H200 GPU则进一步升级为HBM3E,带宽和容量均有显著提升。
  3. 这一演进不仅体现在硬件参数上,更推动了AI芯片设计思路的根本性转变。

HBM3E带来的性能飞跃

  • HBM3E相比HBM3提供了更高的数据速率和能效。
  • 每个引脚速率可达12.8Gbps,整体带宽可超过3TB/s。
  • 更高的容量支持也使得处理大模型如LLaMA、GPT等更为高效。

金正浩的预言与行业趋势

金正浩早在多年前就提出,未来的计算系统将以内存为中心,而非以处理器为中心。他认为:

  • AI芯片性能瓶颈不再来自计算单元,而是内存带宽和容量。
  • 传统GPU架构的扩展性有限,而HBM的持续进化将打破这一限制。
  • 随着CXL、UMC等新型内存互连标准的发展,内存将不再只是辅助角色。

预见中的架构转变

  • 内存计算融合:未来可能出现将计算逻辑直接集成到内存中的架构。
  • 内存驱动的AI加速器:专为AI设计的芯片将围绕HBM等高性能内存构建。
  • 软硬件协同优化:算法设计将更加依赖内存访问效率而非单纯算力。

技术变革带来的产业影响

随着内存技术地位的上升,整个AI芯片产业正在经历深刻变化:

  • 内存厂商地位提升:SK Hynix、Samsung等HBM制造商获得更多话语权。
  • GPU厂商战略调整:英伟达、AMD等厂商加大在内存封装和带宽优化上的投入。
  • 新兴架构兴起:如存算一体(PIM)、异构内存系统等逐渐进入实用阶段。

对产业链的冲击

  • 供应链更加集中于高端内存制造。
  • 数据中心设计开始围绕内存容量与带宽优化布局。
  • AI芯片初创公司纷纷将内存作为核心差异化竞争点。

展望未来:内存主导的计算时代

金正浩的愿景正在逐步变为现实,AI芯片的发展重心正从单纯的算力竞赛转向内存效率的优化。未来的计算系统将更注重:

  • 内存层级的深度优化
  • 数据流与内存访问的智能调度
  • 内存与计算单元的高度集成

这一趋势意味着,谁掌握内存技术的制高点,谁就能主导下一代AI芯片的格局。