迈克尔 · 戴尔:2028 年 AI 加速器的总内存需求是 2023 年的 625 倍
背景与预测来源
- 迈克尔·戴尔(Michael Dell)在近日出席美国银行“顶级CEO视角”系列访谈时,提出了一个惊人的预测:
- 到2028年,AI加速器的总内存需求将是2023年的625倍。
这一预测基于当前AI技术发展的趋势,尤其是大模型训练和推理对硬件资源的不断攀升的需求。
技术增长推演路径
迈克尔·戴尔进一步解释了这个625倍增长数字的来源,其核心在于两个25倍的增长叠加:
-
单加速器内存容量增长:
- 2023年英伟达H100 GPU的HBM内存为80GB;
- 到2028年,单颗加速器的内存预计将提升至2TB,相当于增长约25倍。
-
AI加速器数量的增长:
- 随着AI应用的普及和数据中心对AI算力的需求激增,部署的AI加速器数量也将大幅上升;
- 按照戴尔的估计,该数量也会增长约25倍。

因此,25倍(单机容量) × 25倍(数量) = 625倍总内存需求增长。
现实驱动力与技术挑战
推动这一指数级增长的背后,是多个关键因素:
-
AI模型规模持续扩大:
- 大语言模型(LLM)、多模态模型和生成式AI的参数数量迅速增长;
- 更大的模型需要更高的内存带宽和容量来维持高效训练与推理。
-
硬件技术演进受限于物理瓶颈:
- HBM(高带宽内存)的制造和堆叠技术虽然在进步,但成本与产能压力显著;
- 每秒数十TB的内存带宽需求将对芯片设计和散热提出更高要求。
-
数据中心基础设施压力增大:
- 内存需求的爆炸性增长将带动整个数据中心架构的升级;
- 包括供电、冷却、网络连接和存储系统在内的配套基础设施需同步优化。
行业影响与应对策略
面对如此巨大的内存需求增长,整个AI和半导体行业将面临深刻变革:
-
对芯片制造商的影响:
- 英伟达、AMD、英特尔等GPU厂商需加速研发更大内存、更高带宽的加速器;
- 存储芯片制造商如三星、SK Hynix、美光等将面临产能扩张与技术升级压力。
-
对AI企业的影响:
- 模型训练和部署成本将显著上升;
- 需要探索更高效的模型压缩、内存优化与分布式计算方案。
-
对基础设施供应商的影响:
- 戴尔、惠普、联想等服务器厂商需重新设计系统架构;
- 高性能计算(HPC)与AI融合的解决方案将成为主流。
-
对能源与可持续发展的挑战:
- 内存和计算的能耗增长可能加剧数据中心的碳足迹;
- 能源效率优化与绿色计算将成为关键议题。
未来展望
- 迈克尔·戴尔的预测不仅体现了AI技术的指数级发展速度,也揭示了其对硬件和基础设施的巨大压力。
- 未来五年,围绕AI加速器内存的创新将涵盖材料科学、封装技术(如3D堆叠、Chiplet)、软件优化等多个层面。
- 行业需提前布局,确保在技术、供应链和能源利用方面具备应对能力。
- 此趋势将加速推动AI专用芯片(如TPU、NPU)与其他异构计算架构的发展。