最新消息:关注人工智能 AI赋能新媒体运营

英特尔进军GPU市场,挑战英伟达AI算力霸主地位

科技资讯 admin 浏览

英特尔正式入局GPU战场,剑指英伟达

就在本周二,旧金山举行的思科人工智能峰会上,英特尔CEO陈立武(Lip-Bu Tan)首次公开确认:公司即将推出自研GPU产品,正式加入AI加速芯片的激烈竞争。这不是一次试探,而是一次全面的战略转身——英特尔不再只做CPU,而是要成为AI算力生态中不可或缺的一环。

过去几年,英伟达凭借H100、Blackwell等芯片牢牢掌控着AI训练市场,份额一度超过80%。而英特尔,虽然在数据中心CPU领域仍占有一席之地,但在AI加速器上几乎缺席。如今,随着AI模型规模持续膨胀,算力需求远超供给,市场开始寻求替代方案。英特尔的入场,恰逢其时。

英特尔

核心团队集结:从Arm、高通挖来顶尖人才

这场转型的背后,是一支被精心搭建的团队。项目由数据中心事业部执行副总裁凯沃尔克·凯奇奇安(Kevork Kechichian)直接领导。这位曾在Arm负责服务器芯片架构的资深高管,去年9月加盟英特尔,被视为公司重振数据中心业务的关键人物。

更引人注目的是首席GPU架构师的加入——埃里克·德默斯(Eric Demers)。他曾任职高通13年,主导过多个移动GPU和AI加速器的设计,是业内公认的“架构大师”。据多位知情人士透露,德默斯今年1月正式入职,负责从零构建英特尔首个高性能GPU架构。他的加入,意味着英特尔不再满足于“模仿”,而是要打造真正能与H100对标的产品。

团队中还包括来自AMD、NVIDIA离职的多名资深工程师,他们在内存子系统、并行计算和AI编译器优化方面拥有实战经验。这不是一次“招人”,而是一次“重组”。

不拼算力,拼存储:英特尔的差异化路线

陈立武在会上直言:“现在的AI芯片,90%的功耗都花在了数据搬运上。”他指出,当前主流GPU面临严重的“内存墙”问题——模型参数越来越大,但显存带宽增长缓慢,导致大量时间浪费在数据读取上。

英特尔的应对策略不是一味堆核心、加频率,而是从底层重构:利用其在封装技术上的长期积累,把HBM(高带宽内存)和计算芯片通过EMIB或Foveros技术紧密集成,减少数据移动距离。同时,公司正与多家云服务商合作,开发针对推理场景的低功耗、高吞吐GPU方案,目标直指企业级AI部署的“最后一公里”。

有分析师指出,英特尔的首款GPU可能不会在2025年就挑战H100的巅峰性能,但会在边缘计算、私有云、工业AI等对成本和能效敏感的领域快速切入,用“够用、稳定、可量产”打开缺口。

不只是芯片:18A工艺+代工业务成关键支点

英特尔的野心,远不止于卖一块GPU。公司正全力推进18A工艺(相当于台积电2nm级别),并将其作为代工服务的核心平台。这意味着,未来英特尔不仅能自己用,还能为其他AI公司代工GPU芯片。

这背后是一盘更大的棋:通过自研GPU带动18A工艺的良率提升和生态建设,再反过来吸引第三方客户使用其代工服务。目前,已有至少三家AI初创公司与英特尔达成早期合作意向,计划在2026年前采用18A节点生产定制AI芯片。

与此同时,英特尔正在与微软、AWS、谷歌等云厂商探讨联合优化方案,包括硬件级的AI模型压缩、内存调度协议等,试图构建一个“英特尔+软件+云”的完整生态,而不是只卖硬件。

未来三年,市场格局或将重塑

据行业消息,英特尔首款自研GPU代号为“Gaudi 3”,预计将在2025年下半年亮相,初期聚焦AI推理市场,2026年推出训练版本。与英伟达动辄上万美元的H100不同,英特尔计划将价格控制在6000美元以下,主打性价比和供应链安全。

对客户而言,这不只是多了一个供应商的选择,更是摆脱单一依赖的关键一步。尤其在地缘政治紧张、出口管制升级的背景下,越来越多企业开始主动寻求“非英伟达方案”。

陈立武在演讲最后说:“我们不是要打败谁,而是要让AI算力变得更可及、更可靠。”这句话,或许正是英特尔这次转型最真实的动机——不是为了追赶,而是为了重建。