随着生成式 AI 从模型训练一路延伸到推论部署、数据搬移与大规模云端调度,市场焦点虽然长期放在 GPU,但真正支撑整体 AI 系统稳定运作的底层基础设施,正在重新把 CPU 与各类基础设施加速芯片推回舞台中央。 Intel 与 谷歌 于 2026 年 4 月 9 日宣布扩大双方既有合作,签下多年期 AI 与云端基础设施合作协议,除了确认 谷歌 Cloud 将持续在多种工作负载中部署 Intel Xeon 处理器,也将扩大共同开发定制化 ASIC 型基础设施处理单元(IPU),显示在 AI 时代的超大规模数据中心竞争中,单靠 GPU 已不足以定义胜负,如何打造平衡、 可扩充且高效率的异质化系统,才是下一阶段关键。

Intel 与谷歌签下多年期AI基础设施合作案
谷歌 Cloud 持续采用 Xeon,合作案横跨多个世代平台
根据Intel公布的内容,这份新合作将横跨多个世代的Intel Xeon平台,目标是提升谷歌全球基础设施在效能、能源效率与整体持有成本上的表现。 谷歌 Cloud 将持续在 AI、推论以及一般用途运算等场景中使用 Intel Xeon,包含目前已应用于 C4 与 N4 执行个体的 Xeon 6 处理器。 Intel 特别强调,当 AI 工作负载规模持续扩张后,CPU 的角色不再只是传统主机处理器,而是负责协调、数据处理与系统层级运作的重要中枢,因此 AI 并不是只靠加速器在跑,而是靠整套系统共同完成。
双方同步扩大IPU共同开发,强化AI数据中心底盘效率
这次合作另一个更值得注意的重点,是双方将扩大共同开发客制化ASIC型IPU。 Intel 说明,这类可编程加速器主要用来将网络、储存与安全等基础设施任务,从主 CPU 上卸载出去,进而改善整体资源使用率、提升能效,并让超大规模 AI 环境中的系统表现更可预测。 换句话说,当市场一窝蜂追逐GPU训练效能时,谷歌与Intel正同步投资那些会直接影响大型数据中心吞吐量、延迟、能源效率与扩充能力的基建层。 这也凸显出,未来 AI 云端服务的竞争,不只是哪家有更多算力,而是哪家能更有效率地把各种算力、网络与数据流整合成一个能稳定扩张的系统。
谷歌 并未把 AI 未来押注单一加速器,而是采异质化配置
从谷歌的角度来看,这份合作延续了双方将近20年的关系,也再次说明即使谷歌早已在AI领域拥有TPU等自研加速器,其云端平台与大规模AI基础设施依然高度依赖通用CPU与基础设施加速元件的协同。 谷歌 AI Infrastructure 资深副总裁兼首席技术专家 Amin Vahdat 表示,从训练编排、推论到部署,CPU 与基础设施加速仍然是 AI 系统的核心基石,而 Intel 的 Xeon 路线图让 谷歌 对于未来持续满足工作负载对效能与效率的需求抱持信心。 这段表述显示 谷歌 并未把未来 AI 基础设施单纯押注在单一类型加速器上,而是采取更实际的异质化配置策略。
对Intel而言,这不只是订单,也是AI系统架构话语权之争
对Intel而言,这项合作案的战略意义也相当直接。 近年AI热潮让市场注意力大量集中在GPU与高带宽记忆体供应链上,使传统CPU厂商看似声量被盖过,但实际上,当企业开始大规模部署生成式AI服务,CPU在资料前处理、任务调度、推论支持、虚拟化、网络与储存管理等环节的重要性反而被重新凸显。 Intel首席执行官 Lip-Bu Tan 在声明中指出,AI 正在重塑基础设施建置与扩张方式,而 AI 的扩展需要的不只是加速器,更需要平衡的系统,CPU 与 IPU 正是满足现代 AI 工作负载对效能、效率与弹性需求的核心元件。 这番说法显然不只是产品宣传,更像是Intel对外释出的产业论述,也就是在AI基础建设竞赛中,Intel要抢的不只是算力芯片市场,而是整体系统架构话语权。
谷歌 Cloud 将持续使用Intel Xeon,包括最新的Xeon 6 处理器来处理AI、云端与推论任务,同时也将持续与Intel共同开发处理器。 报导并提到,在GPU负责模型训练之际,CPU在执行AI模型与整体AI基础设施中依旧扮演关键角色,这也是近期市场对CPU需求持续升高的重要背景之一。
Intel 与 谷歌 都认为,下一代 AI 驱动的云服务,需要更强的底层基础,而这份合作正是为了支撑企业、开发者与终端用户未来持续成长的需求。 这个说法虽然仍偏官方语言,但放在目前全球云端业者竞逐AI平台主导权的背景下,可以看出两家公司都希望抢先把异质整合、平衡算力、提高基建效率这套逻辑,提前固化为未来大型AI云端服务的标准框架。
真正的竞争焦点,已从单点芯片走向整体系统整合能力
如果把这起合作放到更大的产业脉络来看,谷歌 与Intel 的动作,某种程度上也反映出 AI 基础设施竞赛正从谁有最强单点芯片,走向谁能整合出最有效率的大规模系统。 当 AI 模型规模变大、推论需求暴增、企业用户导入更广泛的生成式 AI 服务后,数据中心面临的瓶颈早已不是只有训练速度,而是如何降低系统复杂度、如何减少能源消耗、如何提升整体资源利用率,以及如何让平台在扩张时不至于失控。 从这个角度来看,Intel Xeon 加上客制化 IPU 的组合,未必是最吸睛的宣传主角,却很可能是 谷歌 Cloud 在下一波 AI 基础建设中最务实、也最关键的底盘之一。