在过去几年的生成式 AI 浪潮中,大众的目光往往聚焦於负责大规模平行运算的 GPU。然而,随着人工智慧从简单的一问一答,演进至具备自主规划能力的代理式 AI,运算架构的权力核心正在发生微妙且深刻的转移。
AMD 董事长暨执行长苏姿丰博士曾将代理式 AI 形容为一种全新的使用者类型。这类系统不再只是被动回应,而是能持续运作、存取资料并进行复杂决策。在这种趋势下,CPU 的发展策略已不再仅仅是追求时脉的提升,而是转向成为 AI 资料中心里不可或缺的战术总教练。
在传统的 AI 训练阶段,CPU 的任务相对单纯,主要负责资料的预处理、载入以及系统排程,确保 GPU 这群敏捷运动员能心无旁??地进行繁重的类神经网路运算。
但当 AI 进入推论与代理化阶段时,情况产生了质变。代理式 AI 需要处理工具调用(Tool Calls)、API 请求、记忆体查询以及多步骤的逻辑推理。这意味着,CPU 必须投入更多时间进行逻辑运算,评估 GPU 产出的结果,甚至在调整指令後要求 GPU 重新运算。
现代 AI 基础设施的胜负,不再取决於单一元件的强弱,而在於系统的平衡。CPU 负责的控制流程与资料编排直接决定了 GPU 的生产力。若 CPU 效能不足,再强大的 GPU 也会因为等待资料而空转,导致整体持有成本(TCO)攀升。
面对 AI 需求的激增,晶片巨头如 AMD 在 CPU 的发展策略上,展现了与竞争对手不同的思考路径。相较於新兴的架构,成熟的 x86 体系在代理式 AI 时代仍保有以下优势:
企业多数的工作负载与资料库皆原生运行於 x86 环境。在导入代理式 AI 时,企业无需为了相容性进行大规模的程式码重构或维护多套程式码库。另外根据最新数据,第 5 代 AMD EPYC 处理器在特定基准测试中,每核心效能与每瓦运算效能皆显着优於同级竞争对手。在电力资源受限的现代资料中心,这种高效能、低功耗的策略,直接缓解了 AI 扩张带来的能源压力。
AMD 的小晶片(Chiplet)设计方法,也是应对代理式 AI 多变需求的核心武器。透过模组化设计,CPU 能灵活调整运算核心、I/O 频宽与记忆体配置,以对应从核心企业应用到复杂 GPU 编排的不同需求。
这种灵活性确保了 CPU 在处理代理式 AI 任务时,能精准分配资源。例如,在管理复杂的资料湖(Data Lakes)移动资料时,CPU 能提供高频宽支援;而在进行决策逻辑判断时,则发挥高核心效能的优势。
随着代号为Venice 的下一代 EPYC 处理器与 Helios 机架级架构的规划,CPU 的发展愿景已清晰可见:AI 效能将不再由单一晶片定义,而是由系统级的协同决定。
未来的 CPU 将扮演更加强大的编排者角色,透过紧密整合 GPU、网路技术(如 Pensando)与开放软体堆叠(如 ROCm),建立一个开放且平衡的生态系统。代理式 AI 的兴起,证明了在 AI 的下半场,拥有「最强大脑」与「最稳健指挥力」的 CPU,才是决定资料中心效率与竞争力的关键基石。