Micron HBM 爆发:你以为 AI 只缺 GPU,其实它也缺高带宽内存

发布时间:2026-03-18

模型越大,内存越像氧气;没有 HBM,GPU 也跑不出真正的效率。

人物标签


当前事件

Micron FY2026 Q2 收入 238.6 亿美元,并给出 Q3 335 亿美元收入指引。

财报背后最关键的信号,是 AI 需求正在从 GPU 传导到 HBM、DRAM 和数据中心存储。


三个核心观点

第一,AI 服务器不是只买 GPU,还要高带宽内存、存储和网络配合。

第二,推理规模扩大后,内存带宽和容量会成为系统效率瓶颈。

第三,Micron 的弹性来自 AI 需求叠加存储周期反转。


现实推演

如果 AI capex 继续扩张,市场会重新认识“算力基础设施”这个词。

它不只是 NVIDIA,也包括 Broadcom、Micron、数据中心、电力和散热。

AI 工厂不是一张 GPU 清单,而是一整套吞吐系统。

资料来源