当大模型训练、AI 推理场景全面渗透,存储芯片市场正迎来历史性增长周期 —— 据市场调研机构 Omdia 最新发布的《2025 全球存储芯片行业报告》,2025 年全球存储芯片市场规模达到 2620 亿美元,同比增长 38%,较 2023 年的 1580 亿美元实现 66% 的扩张,其中 AI 驱动的需求贡献占比超 55%。
高带宽内存(HBM)作为 AI 算力的核心存储载体,成为本次增长的 “主力军”:2025 年 HBM 市场规模达 285 亿美元,同比暴增 240%,较 2022 年的 12 亿美元实现 23 倍增长。从技术迭代看,HBM3E(带宽超 1TB/s)已成为主流:英伟达 H100/H200 GPU 单卡搭载 8 颗 HBM3E,单颗容量达 16GB,单卡存储成本占比从 2023 年的 30% 提升至 2025 年的 45%;AMD MI300X 芯片则搭载 12 颗 HBM3E,总容量达 192GB,推动 AI 训练效率提升 40%。供应端方面,三星、SK 海力士占据 HBM 市场 95% 的产能:三星 HBM3E 良率达 88%,2025 年出货量占全球 52%;SK 海力士则凭借 HBM4 试产进度领先,预计 2026 年 HBM4 将批量供应。而国内企业仍处突破阶段:长鑫存储 HBM2 样品已完成验证,但产能占比不足 1%,预计 2027 年 HBM3 将实现小批量交付。
除 HBM 外,AI 服务器对传统 DRAM 的需求同样激增:2025 年 AI 服务器用 DRAM 市场规模达 560 亿美元,同比增长 52%,占全球 DRAM 市场的 32%(2023 年仅为 18%)。配置升级成为核心趋势:2025 年主流 AI 训练服务器的内存容量从 2023 年的 512GB 提升至 2TB 以上,部分超算级服务器甚至搭载 4TB DDR5 内存;DDR5 在 AI 服务器中的渗透率从 2023 年的 35% 提升至 2025 年的 72%,其 5600MT/s 的带宽较 DDR4 提升 60%,可匹配 AI 推理的高吞吐需求。从企业表现看,美光科技 AI 服务器 DRAM 出货量占全球 38%,其 DDR5-6400 产品良率达 92%;国内企业方面,长鑫存储 DDR5 出货量占全球 8%,主要供应国内 AI 服务器厂商,预计 2026 年份额将提升至 12%。
AI 数据中心的海量数据存储,也带动了 NAND Flash 市场的增长:2025 年全球 NAND Flash 市场规模达 1120 亿美元,同比增长 28%,其中 AI 数据中心需求占比从 2023 年的 12% 提升至 25%。技术路线上,3D QLC(每单元存储 4bit 数据)成为 AI 数据中心的首选:2025 年 3D QLC 在 AI 数据中心 NAND Flash 中的占比达 65%,较 2023 年的 30% 翻倍,其单位容量成本较 TLC 降低 25%,可支撑 PB 级数据的低成本存储;长江存储的 232 层 3D QLC 良率达 90%,2025 年在国内 AI 数据中心的市占率达 22%,同比增长 50%。
尽管产能持续扩张,但 AI 需求的爆发仍带来短期缺口:Omdia 预测,2026 年全球 HBM 产能将达 3.2 亿 GB,但需求将达 3.7 亿 GB,缺口约 15%;DRAM 方面,AI 服务器需求年增 45%,而产能年增仅 28%,供需紧平衡将持续至 2027 年。价格方面,2025 年 HBM3E 单价同比上涨 20%,DDR5 单价上涨 8%;预计 2026 年 HBM 价格仍将保持 10% 以上的涨幅,而 NAND Flash 受产能释放影响,价格涨幅将收窄至 5% 以内。
业内分析认为,AI 对存储的需求将呈现 “长期高增长、技术快迭代” 的特征,HBM、DDR5、3D QLC 等高端存储产品将成为行业增长的核心引擎,而具备先进制程产能、技术迭代能力的企业,将在这场 “存储竞赛” 中占据优势。