最新消息:关注人工智能 AI赋能新媒体运营

英伟达季度营收达680亿美元创纪录,黄仁勋称“计算驱动收入”

科技资讯 admin 浏览

英伟达季度营收突破680亿美元,AI算力需求彻底爆发

在全球对人工智能算力的需求持续狂飙的背景下,英伟达公布了创纪录的财报数据:2024财年第三季度营收高达680亿美元,同比增长73%;全年营收更是冲破2150亿美元大关,稳居全球科技公司营收榜首。这一数字不仅刷新了行业纪录,也再次印证了AI时代“算力即货币”的现实。

在总营收中,数据中心业务贡献了620亿美元,占比超过九成。其中,510亿美元来自以H100、B100等GPU为核心的AI训练与推理服务,110亿美元则来自NVLink高速互联、网络交换机等配套基础设施。这些产品不再是“可选项”,而是全球大模型训练的“必需品”。

英伟达CEO黄仁勋在财报电话会上直言:“全球对AI算力的需求已经不是增长,而是爆炸。”他提到,即便是六年前部署在云服务商机房里的旧款GPU,如今依然满载运行,排队等待使用。有客户甚至愿意为一台二手A100支付高于新品的租金——算力稀缺,已成常态。

英伟达

中国市场的沉默:出口限制未解,本土玩家悄然崛起

尽管美国政府近期放宽了部分对华AI芯片出口限制,允许少量H200芯片销往中国,但英伟达本季度在中国市场的直接收入仍为零。CFO科莱特·克雷斯坦言:“我们确实收到了一些出口许可,但目前还没有形成实际销售。”她同时指出,未来能否持续供货,仍取决于美国政府的审批节奏和地缘政治走向。

与此同时,中国本土AI芯片企业正加速追赶。摩尔线程(Moore Threads)、壁仞科技、寒武纪等公司已陆续推出面向大模型推理的国产GPU,并在政务、金融、教育等领域落地。摩尔线程在2024年完成新一轮融资后,已与多家国内云厂商达成合作,其MTT S3000芯片在部分场景下的能效比接近英伟达A100。虽然整体性能仍有差距,但它们正以更低的价格、更快的响应速度抢占细分市场。

一位国内AI创业公司技术负责人透露:“我们不敢完全依赖进口芯片,现在采购国产芯片的比例已从10%提升到35%。不是为了替代,而是为了不被卡脖子。”

300亿美元押注OpenAI?合作背后是生态之争

黄仁勋在财报会上首次公开透露,英伟达正与OpenAI就一项“约300亿美元”的深度合作进行谈判,内容涵盖算力采购、联合研发、定制芯片等。虽然公司向SEC提交的文件中明确标注“交易尚未达成,存在不确定性”,但市场已将其视为AI行业的一次“世纪联姻”。

事实上,英伟达早已不是单纯的芯片供应商。它正通过“硬件+软件+生态”三位一体的策略,牢牢绑定全球AI巨头:与Meta合作优化Llama系列模型的训练效率;与Anthropic共建安全推理框架;与xAI(马斯克旗下团队)共同部署下一代超算集群。这些合作不仅带来订单,更让英伟达的CUDA生态成为AI开发者的“默认语言”——换平台,意味着重写代码、重建训练体系,成本极高。

“计算就是收入”:AI时代的商业逻辑彻底重构

面对外界对科技巨头“烧钱买算力是否可持续”的质疑,黄仁勋给出了一个直白的答案:“在AI时代,计算不再是成本,而是收入本身。”

过去,企业买服务器是为了跑业务系统;现在,企业买GPU是为了生成内容、服务用户、创造商业价值。一家使用英伟达芯片训练AI客服的电商公司,每小时能处理10万次咨询,节省人力成本的同时,转化率提升27%——算力直接转化为利润。

这种转变正在重塑全球科技格局:谷歌、亚马逊、微软等云厂商疯狂扩建AI数据中心;中国互联网巨头加码自研模型;就连传统车企、银行、医院都在抢购算力资源。而英伟达,正站在这个链条的最上游——它不卖软件,不运营应用,却掌握着让所有应用运转的“电”。

未来三年,全球AI算力需求预计仍将保持年均50%以上的增速。英伟达的挑战,不再是“能不能卖得动”,而是“能不能造得出”。晶圆产能、供应链韧性、人才储备,这些曾经被忽略的“基础工程”,如今成了决定胜负的关键。而这场围绕算力的战争,才刚刚进入白热化阶段。