全球 RAM 紧张的消息,已经很难再被看成一轮普通的半导体周期波动。日经亚洲援引行业预估称,到 2027 年底,内存厂商最多只能满足约 60% 的需求;SK 集团董事长甚至把部分短缺风险延长到了 2030 年。我的判断是,这次问题的核心不只是“缺货”,而是内存产业的产能分配正在被 AI 改写。
这件事真正重要的地方,在于它会把 AI 热潮的成本外溢到消费电子市场。用户感受到的不是技术路线图,而是更贵的手机、更贵的笔记本,以及采购周期被一再推迟的企业 IT 预算。它不那么重要的地方在于,短期内这不会让消费级设备突然“买不到”;更现实的结果是,配置升级变贵、厂商涨价更有底气,中低端产品的性价比会先被挤压。
内存厂商在扩产,但扩的不是你最需要的那种
三星、SK 海力士和美光都在加码新产能,但这些新工厂大多要到 2027 年甚至 2028 年后才会真正上线。2026 年三大厂里,只有 SK 海力士位于清州的新厂算得上明确增量。按日经的测算,要追上需求,2026 和 2027 年的产量都得年增 12%;但 Counterpoint Research 给出的规划增幅只有 7.5%。
这说明问题不是企业没投资,而是投资方向变了。新增产能优先押注 HBM,也就是 AI 服务器最依赖的高带宽内存。HBM 单价高、利润厚,和 Nvidia GPU、AI 训练集群绑定得很紧;相比之下,PC、手机用的通用 DRAM 虽然量大,却没那么“赚钱”。从厂商视角,这是正常商业选择;从消费者视角,这意味着所谓扩产,未必会立刻缓解你买电脑时遇到的加价。
这轮短缺和过去不一样,AI 把内存从配角变成了主战场
内存行业过去也常有涨价周期,2017 至 2018 年就出现过一轮明显上行,当时更多是手机升级、服务器需求增长和厂商控制资本开支共同推动。但这一次,AI 把需求结构彻底拉偏了。训练和推理集群不仅需要更多 GPU,也需要更高规格的 HBM 来喂饱算力,内存不再是配套零件,而是决定 AI 基础设施能否交付的关键部件。
公开说法是“行业正在扩产”,行业现实却是“新增供给先服务利润最高的客户”。这个落差,是很多普通读者单看标题不容易意识到的限制条件。比如 Nvidia 的 H100、B200 这一类 AI 加速卡,本身就高度依赖 HBM 供应;只要云厂商和大模型公司还在抢卡,内存厂商就很难把最先进制程优先让给消费级 DRAM。也就是说,AI 没有直接买走你手机里的 RAM,但它买走了更宝贵的产能与资本开支。
谁会先感到疼:不是实验室,而是买设备和做采购的人
The Verge 此前已经报道,内存短缺正在传导到终端价格:三星上调 Galaxy 手机和平板价格,微软上调部分 Surface 机型,Meta 也把 Quest 3 涨了 100 美元,一些掌机品牌同样宣布调价。对不同人群,这不是同一种痛感:
| 受影响对象 | 最现实的变化 | 背后原因 |
|---|---|---|
| 普通消费者 | 16GB 升 24GB、24GB 升 32GB 的成本变高 | 通用 DRAM 供给偏紧,整机厂更敢提价 |
| 企业采购 | 换机周期拉长,批量采购更容易被拆单延期 | 大客户订单要锁价锁货,预算更难做 |
| 硬件厂商 | 中端产品利润被压缩,可能砍配置保售价 | RAM 是刚性成本,难靠营销消化 |
| 开发者和内容从业者 | 本地 AI、视频剪辑、多任务设备升级门槛上升 | 高内存配置机型涨价更明显 |
如果你正准备买设备,接下来最现实会遇到的变化,不是“全面缺货”,而是同样预算买到的配置变保守。厂商会更积极地把 8GB、12GB、16GB 这些原本过渡性的容量继续留在主流档位,而把更高内存做成利润更厚的升级选项。
真正的不确定性,在于 AI 需求会不会持续到吞掉整个周期
现在最关键的变量有两个。一个是 AI 数据中心建设节奏会不会继续维持高位。如果云计算巨头、主权 AI 项目和模型公司继续抢 HBM,消费级 DRAM 的缓解速度就会很慢。另一个是终端厂商是否会调整产品设计,例如更多采用内存更节省的软件策略,或者延缓高配 SKU 的铺货。
也别忽略历史教训:半导体行业总有“今天极度短缺,明天突然过剩”的惯性。问题在于,这一次 AI 资本开支的持续时间可能比很多人预想得更长。如果 2027 年新产能集中释放时,AI 需求仍旧强劲,价格未必会明显回落;如果 AI 投资降温,市场又可能迅速切回库存修正。真正决定走向的,不只是工厂建得快不快,而是 AI 这台吞金机器何时开始踩刹车。
