
近日,存储价格上涨、服务器CPU供不应求等新闻频发,然而在2026年初这个节点回看,CPU 供需紧张只是一个表象。更深层的变化在于,AI 产业正在完成一次并不喧哗、却极为深刻的结构迁移。
经历了前两年的大训练竞赛之后,生成式 AI 的重心,正从大模型的“暴力训练”转向智能体(Agentic AI)的“全时推理”;从单模型调用,转向多智能体协同;从少量集中式算力集群,走向云、边、端多层级扩散。而在这次迁移过程中,一个看似“传统”的角色,正在重新走到舞台中央——CPU。如果说训练时代拼的是“肌肉(GPU)”,那么 Agent 时代拼的则是“大脑(CPU)”。
过去两年,市场对 AI 算力的讨论高度聚焦 GPU:算力规模、显存容量、互联带宽、卡间拓扑,构成了几乎全部叙事重心。但当 AI 开始进入规模化应用阶段,一个现实逐渐浮出水面:
根据IDC最新的《全球智能体市场预测报告》,到2030年,全球活跃智能体规模将突破22亿个。这种爆炸式增长带来了一个技术侧的冷知识:在一个复杂的AI智能体任务中,由于涉及频繁的逻辑判断、实时感知和决策闭环,CPU的处理耗时竟然占到了总任务延迟的80%-90%。
这意味着,单纯堆砌并行算力的时代已经结束。2026年初的KeyBanc报告也指出,全球服务器芯片需求正以40%的年增速狂奔,而其中至强(Xeon)的交付优先级被英特尔提到了前所未有的高度。这不仅仅是产能的倾斜,更是底层计算范式的转向——AI需要一个更聪明的“大脑”来调度那些强大的“肌肉”。
如果说训练时代,CPU 更像是 GPU 的“配角”;那么在 Agentic AI 时代,CPU 正在重新变成系统主角。
为什么这么说呢?Agentic AI 的典型特征包括:需要持续运行、多任务并行、实时感知-决策-行动闭环、高可靠性与安全隔离需求,这类工作负载,对算力的要求并不等同于“更大吞吐”,而是更强调低延迟、确定性、资源可调度性以及长时间稳定运行,这恰恰是 CPU 架构长期擅长的领域。
更重要的是,智能体的爆发并不是单点GPU需求,而是成倍放大系统节点数量:更多服务器、更多边缘节点、更多微型数据中心。这意味着,每一个节点几乎必然配置 CPU,而 GPU 反而可能呈现按需部署。
从系统层面看,CPU的核心价值正在由单纯的算力提供者,演进为AI计算系统的调度与组织中枢。
尽管当前市场的供给紧张主要集中在第四代和第五代至强处理器上,但从更长的技术周期看,至强 6 才是英特尔在 AI 时代押注的核心主控平台。
在 AI 服务器中,算力已高度向昂贵的加速器集中,主控 CPU 却并未因此被边缘化,反而变得更加关键。其原因并不在于某一项参数的领先,而在于至强 6 围绕系统级需求所构建的一整套能力组合。
第一,更强 I/O把加速器“喂饱”。至强6每颗处理器最多192条 PCIe 5.0 通道,相比上一代,通道数量提升最高天博平台安全性评测20%。在 AI 系统中,CPU 是否能高效地向 GPU/ASIC 传输数据,直接决定了加速器的利用率。I/O 能力不足,等同于昂贵算力被闲置。
第二,更多内核+更高单线 个性能核,每路内核数较上一代提升最高 2 倍,这使得 CPU 能同时承担任务调度、数据预处理、控制逻辑、轻量推理等多个任务而不会成为系统瓶颈。
第三,MRDIMM与CXL的内存革命。这是英特尔首次引入MRDIMM技术,内存带宽较前代直接拉升了2.3倍。配合CXL一致性协议,CPU与加速器之间的内存墙被推倒,极大地降低了异构计算的软件栈复杂度。
第四,AMX实现CPU侧 AI 能力补充。英特尔 AMX 新增对 FP16 的支持,使 CPU 在数据预处理、轻量推理阶段,具备一定 AI 加速能力,减少对 GPU 的依赖。
第五,面向大规模部署的 RAS 能力。RAS稳定性保障对于动辄数千个节点的AI集天博平台安全性评测群,宕机意味着巨额损失。至强 6提供的电信级RAS支持,是目前市面上加速平台最稀缺的“确定性”。
至强 6 的意义并不在于重新争夺“算力主角”,而在于明确了 CPU 在 AI 加速时代的新位置——系统效率的决定者。当计算被加速器拆分、数据在多层内存与互连中高速流动时,真正影响 AI 服务器上限的,已不再是某一颗芯片的峰值性能,而是整个系统能否被有效组织与持续扩展。
以至强6为锚点,英特尔正在重新梳理其在AI时代的计算版图。长期以来,芯片巨头的内部往往存在严重的“烟囱式”架构,导致不同计算单元间协同效率低下。英特尔创新的全面加速,不仅源于芯片产品迭代的突破,更源于组织结构的扁平化革命。
2025年9月,英特尔任命 Kevork Kechichian 为数据中心集团执行副总裁兼总经理,并将包括 CPU、GPU 以及整体平台战略在内的核心数据中心与 AI 业务置于其统一管理之下。
Kevork Kechichian 具备超过 30 年行业背景,曾在 Arm、NXP 和 Qualcomm 担任高管。这不仅是一次高层的人事重塑,更是英特尔向“提供系统级算力”转型的标志。在 Kevork 的操刀下,CPU 负责逻辑、GPU 负责并行、ASIC 负责能效的“三级金字塔”架构正式从产品设计延伸到了组织血液。
首先,在CPU方面,英特尔已经向18A进军,定义能效新巅峰。计划于 2026 年发布的 Clearwater Forest(至强® 6+) 堪称英特尔制程工艺的集大成者:
工艺制程上,这是首款大规模采用 18A 制程的数据中心处理器,通过更小的门电容显著降低了功耗;
288 个 Darkmont E 核:这种极致的微型化计算单元布局,使得单插槽核心数翻倍,为超大规模云原生和 Agent 节点提供了惊人的计算密度。
英特尔的GPU路线 年起将进入连续迭代节奏。英特尔已经预告了两款新的GPU产品路线:Crescent Island、Jaguar Shores。
英特尔将发布针对 AI 推理热点工作负载的数据中心 GPU,代号为 Crescent Island,定位于高内存容量与高能效,面向企业及云端服务器。采用全新 Xe3P 架构,据Toms Hardware报道可配备高达 160 GB LPDDR5X 显存,优化推理性能。该GPU将于 2026 年下半年开始向客户交付样品,并有望在 OCP 峰会等行业展会上进一步细化规格。
与此同时,第三类算力正在逐步成型,即面向特定工作负载、以能效为优先目标的专用加速器与定制 ASIC。这一层既包括英特尔自有的 AI 加速器产品线(如 Gaudi),也包括其通过代工与先进封装能力(IFS),为客户提供的定制 ASIC 解决方案。
此外,英特尔的代工业务也是其一个优势。根据公司最新业绩通报和分析师报道:英特尔的ASIC业务在2025年实现超过50%的年增长率,截至2025年末,该业务已形成超过10亿美元年化规模。
从整体来看,英特尔正在尝试构建的是一种多层并存、按负载特征动态分工的算力体系:CPU 负责系统与通用计算,GPU 提供高并行 AI 能力,专用加速器与 ASIC 在特定场景下进一步压榨能效与成本空间。
在 AI 时代,CPU 从未离场,它只是在等待复杂性爆发的那个临界点。随着AI 竞赛正在进入下半场,胜负的决定因素也随之发生变化。比拼的,已不再是谁拥有更高的单点算力,而是谁能够让复杂异构系统在长期运行中保持更高的效率、更低的摩擦和更强的可扩展性。
在这一背景下,CPU 被重新拉回舞台中央,并非因为其算力重新超越了加速器,而是因为它重新成为系统秩序的建立者。大象转身,其势已成。