Google拉上Intel重押AI底座:当所有人追逐GPU时,真正吃紧的是CPU

硬件 2026年4月10日
Google拉上Intel重押AI底座:当所有人追逐GPU时,真正吃紧的是CPU
Google与Intel宣布扩大多年合作,看上去像是一则常规供应链新闻,但它其实点中了AI产业当下最容易被忽视的痛点:GPU固然耀眼,CPU和数据中心“杂务芯片”才是撑起大模型落地的地基。Google继续采用Intel Xeon,并联合开发定制IPU,说明AI竞争已经从“谁的模型更强”转向“谁的基础设施更稳、更省、更能规模化”。

Google和Intel这次把合作又往前推了一步。表面上看,事情并不复杂:Google Cloud将继续采用Intel的Xeon处理器,包括最新的Xeon 6,用于AI、云计算和推理任务;双方还会扩大定制基础设施处理器IPU的联合开发。可如果把这条新闻放到2026年的AI产业背景里看,它的分量就不只是“老朋友续约”这么简单了。

过去两年,AI行业的聚光灯几乎全打在GPU上。谁买到更多加速卡,谁就更像拿到了通往下一代大模型的入场券。可现实世界的数据中心从来不是靠单一明星芯片运转的。训练大模型时,GPU当然是主角;但真正把模型部署出去、稳定运行、处理网络、存储、调度、管理一大堆琐碎任务的,仍然离不开CPU,以及像IPU这样的“幕后工作者”。换句话说,AI产业现在缺的不是某一个神兵利器,而是一整套协调运转的工业系统。

这也是我觉得这条新闻最有意思的地方:Google和Intel不是在赌某颗爆款芯片,而是在赌AI时代的“基础设施平衡感”。

GPU很红,CPU很忙

大众对AI硬件的印象,常常停留在“没有GPU就没有大模型”。这话不算错,但只说了一半。GPU擅长高并行计算,非常适合训练和加速推理;可在真实的数据中心里,CPU负责的事情一点都不边缘。它要承担通用计算、系统调度、数据预处理、服务编排,很多推理场景也离不开它。尤其当AI从实验室走向企业服务、搜索、办公、客服、视频处理这些高频业务时,CPU的作用反而更扎实,因为它决定了整个系统是不是足够稳、足够灵活、足够便宜。

Intel CEO陈立武在声明里说,扩展AI不能只靠加速器,还需要平衡的系统。这句话听起来像标准公关发言,但其实很准确。今天很多企业在谈AI基础设施时,仍然容易陷入一种“显卡思维”:仿佛只要堆更多GPU,问题就解决了。可数据中心不是乐高积木,不是多买几块卡就会自动拼成一个高效平台。散热、供电、网络、存储、调度、成本、利用率,哪一项都绕不过CPU和配套芯片。

更现实的问题是,CPU也开始紧缺了。原文提到,全球范围内对CPU的需求正在升高,甚至出现供应吃紧。这并不奇怪。随着AI工作负载暴涨,云厂商扩建机房,企业加速部署推理服务,原本“低调务实”的CPU突然成了所有人都离不开的必需品。就像演唱会里最抢镜的是主唱,但真正让演出不翻车的,往往是调音师、电工和后台总控。

Google为什么要继续押注Intel

Google和Intel的关系并不新鲜。Google多年来一直使用Intel Xeon,双方从2021年就开始合作开发IPU。现在这项合作被进一步扩大,说明Google至少在现阶段仍然认为,Intel在其云和AI基础设施里有不可替代的价值。

这背后有几个层面的考量。一个是现实主义。Google当然有能力自研芯片,它在TPU上已经做得非常深入,也持续推进自有服务器和网络基础设施。但超大规模云平台从来不是“全靠自研”就能搞定的。平台越大,越需要多元供应链、成熟生态和可控交付。Intel虽然这些年在资本市场和产品节奏上承受了不少质疑,但它在服务器CPU、企业兼容性、数据中心经验上的积累,仍然非常厚。

另一个层面是Google Cloud的商业逻辑。Google不是只为自己建AI基础设施,它还要把这些能力卖给外部企业客户。企业客户买云,不只是看峰值性能,也看稳定性、迁移成本和兼容性。Intel Xeon的长期部署基础,意味着大量企业工作负载能更平滑地迁入Google Cloud。说白了,Google既需要前沿,也需要保守;既要TPU这种代表未来的东西,也要Xeon这种今天就能大规模跑起来的东西。

这也是Google相较一些“全力押单一架构”的玩家更务实的地方。AI军备竞赛越激烈,云厂商越不敢把全部筹码压在一张牌桌上。多一种底层选择,就多一层安全垫。

IPU这条线,才是更值得盯住的伏笔

比起“继续用Xeon”,我更关注双方扩大定制IPU的联合开发,而且明确会聚焦于基于ASIC的IPU。因为这意味着Google和Intel合作的重点,不只是采购现成芯片,而是更深入地改造数据中心内部的任务分工。

IPU并不是公众最熟悉的芯片类别。它的主要作用,是把一部分原本压在CPU上的基础设施任务卸载出去,比如网络、存储、安全、虚拟化、流量管理等。这个思路其实和近几年数据中心里越来越流行的DPU、SmartNIC有相通之处:不是让一颗通用处理器什么都干,而是让不同芯片各司其职,提升整体效率。

为什么这件事重要?因为AI时代最贵的,不只是芯片采购成本,还有“浪费”。如果一台昂贵的GPU服务器,大量资源被网络调度、数据搬运、虚拟化开销拖住,那就像请了顶级大厨却让他每天先搬煤气罐。IPU这类芯片的价值,在于让CPU和GPU都更专注于自己擅长的事情,从而把整个系统跑得更满、更省电、更容易管理。

这也是超大规模云厂商近几年越来越重视“数据中心细节工程”的原因。外界容易把AI竞争理解成模型参数之战,可真正把利润率、响应速度和客户体验拉开差距的,往往是这些不那么性感的底层设计。Google跟Intel继续做定制IPU,本质上是在拼“数据中心操作系统级别”的能力,而不是单点芯片性能。

Intel的机会来了,但还不是高枕无忧的时候

这项合作对Intel来说,无疑是个好消息。过去几年,Intel在AI叙事里并不总是站在舞台中央。GPU风潮由NVIDIA主导,云厂商纷纷自研芯片,Arm阵营也在不断蚕食服务器市场。连Arm最近都推出了自家AGI CPU,显然是想在全球CPU紧张的窗口期里,进一步争夺AI基础设施入口。

所以,Google这份扩展合作至少说明两件事。第一,Intel还没有被AI时代淘汰,它依然是超大规模云基础设施里的关键角色。第二,AI产业的赢家不会只有那些“训练芯片明星公司”,那些能把通用计算、网络卸载、数据中心协同做到位的厂商,依旧有机会拿到长期订单。

但Intel的问题也没有因为这一纸合作自动消失。真正的考验在后面:它能否按节奏交付Xeon 6及后续产品,能否在功耗、性能和定制能力上持续跟上Google这类巨头的要求,能否在与AMD、Arm生态以及云厂商自研芯片的竞争中守住自己的位置。AI基础设施正在从“拼有没有”进入“拼效率”的阶段,一旦效率成为核心指标,Intel面对的压力只会更大。

我甚至觉得,这条新闻还引出一个更值得行业思考的问题:未来几年,超大云厂商和芯片公司之间的关系,会不会越来越像“联合设计伙伴”,而不是单纯的买卖双方?Google与Intel共同开发IPU,已经在某种程度上给出了答案。今天是Google,明天也许会有更多云公司要求芯片厂商按自己的数据中心形态去定制产品。标准化芯片不会消失,但“半定制化”可能会成为AI基础设施的新常态。

AI进入下半场,拼的是地基而不是烟花

如果把过去两年的AI热潮比作一场烟花秀,那么现在行业正在进入搬砖、打桩、铺电缆的阶段。这个阶段没那么浪漫,也不那么适合做短视频标题,但它决定了谁能把AI真正变成一门持续赚钱的生意。

Google和Intel这次深化合作,透露出的正是这种产业心态变化。Google需要稳定、可扩展、能服务企业客户的底层系统;Intel需要证明自己在AI时代仍是“基础设施核心成员”,而不是旧时代的遗产。双方一拍即合,并不意外。

更大范围看,这也说明AI产业正在重新评价CPU的战略地位。训练一个超大模型,的确能让GPU出尽风头;可当数百万、数千万用户开始调用模型时,真正托住日常运营的,是那些不太上头条的芯片、服务器和机房工程。技术行业常有一种误解:越显眼的部件越重要。可在数据中心里,往往恰恰相反——越看不见的东西,越决定成败。

所以,这不是一条“Google继续买Intel芯片”的普通新闻,而是一条关于AI产业成熟度的信号。热闹仍在继续,但大家已经开始认真算账了。

Summary: 我的判断是,Google与Intel这次深化合作,不会像新模型发布那样迅速点燃市场情绪,却可能比一场发布会更能说明AI产业的真实走向:行业正在从拼算力神话,转向拼基础设施效率。未来两三年,CPU、IPU、DPU这类“配角芯片”的战略价值会继续上升,云厂商与芯片公司也会走向更深的联合设计。谁能把底座做稳,谁才更有机会吃到AI规模化落地的长期红利。
GoogleIntelCPUGPUXeonIPUGoogle Cloud数据中心基础设施AI推理大模型落地