一、AI 与内存条(DRAM / HBM)的关系
1. AI 计算为什么“吃内存”?
AI 系统、尤其是大规模深度学习训练与推理集群,对内存资源的需求远高于传统计算:
2. 不同内存种类在 AI 生态中的角色
DRAM(动态随机存取存储器):传统 PC / 服务器内存,也是大多数 AI 工作负载训练和推理系统的主要运行内存。
HBM(高带宽内存):用于 GPU 或 AI 加速器,读写速度远高于普通 DRAM,但成本更高、制造复杂度大。
LPDDR:用于移动设备,但随着 AI SoC 的普及(如边缘推理),越来越多高端 SoC 也采用类似 LPDDR5X 的方案。
由于 AI 基础设施对高性能内存的极端依赖,整个半导体制造商逐渐 将产能优先分配给 AI 专用内存(如 HBM)以及高端 DRAM,从而压缩了传统消费级内存的供应。
二、内存条价格近况与趋势
1. 全球内存价格大幅上涨的现状
从 2025 年下半年开始,内存条价格出现了明显的飙升:
消费级 DDR5 内存条 价格大幅上涨。例如 16GB 产品在 2025 年几个月内价格从几百元涨到千元以上。
高端 服务器 DRAM 内存 单条价格已突破 4 万元人民币(约合数千美元)级别。
部分市场甚至出现一天多次价格变动的极端波动,成为所谓的“黑金条”。
2. 供需矛盾核心——AI 需求驱动
这轮价格上涨背后的关键因素是 AI 基础设施对于内存资源的大规模抢占: