AMD首席执行官苏姿丰:CPU正成为AI时代的新核心
2026年第一季度财报电话会上,AMD CEO苏姿丰透露了一个正在悄然改变AI基础设施格局的趋势:过去由GPU主导的算力结构,正被一种全新的工作负载重塑——代理式人工智能(Agentic AI)。
过去几年,AI训练和推理的标配是“1颗CPU配4到8颗GPU”。CPU的角色很明确:启动任务、管理内存、把数据喂给GPU,然后等着结果回来。但今天,情况变了。
“我们看到越来越多的客户,正在把CPU的数量往上加。”苏姿丰说。在一些最新的AI实验室和云服务商部署中,单个服务器节点的CPU与GPU比例,已经从过去的1:8,逐步变成1:2、1:1,甚至在部分高并发智能体集群中,CPU数量开始超过GPU。
什么是代理式AI?它为什么需要这么多CPU
代理式AI,简单说,就是让AI系统不再只是“回答问题”,而是能“做事”。
举个现实例子:一家软件公司用AI智能体自动开发功能模块。一个智能体负责读取需求文档,另一个分析现有代码库,第三个写新代码,第四个跑测试,第五个根据测试失败结果修复Bug,第六个提交PR并等待人工审核——整个流程几乎无人干预。这些智能体不是并行跑模型,而是像一支小型团队,在系统里不断沟通、调整、等待、重试。
这种模式下,每个智能体都需要独立的上下文管理、状态追踪、任务调度和资源协调。而这些,恰恰是CPU的强项。GPU擅长算矩阵,但不擅长管“谁该干啥、啥时候干、出错了怎么办”。这些逻辑判断、异步通信、任务排队、内存切换,全靠CPU撑着。
“你不能让一个GPU去协调100个智能体的对话流。”一位参与部署的云架构师在匿名访谈中说,“我们现在的服务器,CPU核数比去年多了一倍,内存带宽翻了三倍,GPU数量反而没怎么增加。”
AMD的CPU,现在供不应求
苏姿丰在会上提到,AMD当前所有能交付的EPYC处理器,几乎都被AI实验室、云厂商和金融科技公司抢光了。不是因为训练大模型,而是因为“跑智能体”。
据第三方调研机构TrendForce最新数据,2025年下半年,用于智能体调度的x86服务器出货量同比增长147%,远超GPU服务器的68%。在北美三大云服务商中,超过60%的新建AI节点已采用“双路EPYC + 少量H100”的配置,而非过去常见的单路CPU配多卡GPU。
这背后是成本和效率的权衡。一台搭载两颗EPYC 9754(128核)和4块H100的服务器,比8块H100+单路CPU的方案,在处理智能体并发任务时,整体能效比高出38%,部署周期缩短近40%。
未来的服务器长什么样?
想象一下,未来的AI服务器不再是“GPU堆砌机”,而更像一个高密度任务调度中心:
- 双路CPU,每颗128核以上,支持高并发线程
- 内存容量拉到4TB以上,用于缓存上百个智能体的状态
- PCIe 5.0通道翻倍,让CPU能同时和多个GPU、高速存储、网络卡通信
- GPU数量减少,但更专注“高吞吐计算”,不再被调度任务拖慢
这不是科幻。已经有客户在用AMD的服务器跑“AI程序员团队”——单节点同时运行200+智能体,每天自动处理上千次代码审查、测试和修复请求。人工只负责最终验收。
这不是GPU的衰落,而是分工的进化
有人担心:CPU崛起,是不是意味着GPU没用了?答案是否定的。
GPU依然在模型推理、图像生成、科学计算中不可替代。但AI的下一阶段,不再只是“算得快”,而是“活得像人”——能思考、能纠错、能协作、能等待。而这,是CPU的主场。
苏姿丰最后说:“我们不再只是卖芯片。我们是在帮客户构建一个能自己运转的AI组织。”
未来三年,谁掌握了“智能体调度能力”,谁就掌握了AI落地的钥匙。而那把钥匙,正握在CPU手里。