最新消息:关注人工智能 AI赋能新媒体运营

英伟达豪掷260亿美元,进军AI大模型领域挑战OpenAI与DeepSeek

科技资讯 admin 浏览

英伟达砸260亿美元,要亲手打造“开源AI引擎”

2026年3月12日,英伟达CEO黄仁勋在一场内部会议上宣布了一项震惊行业的大动作:未来五年,公司将投入260亿美元(约合1788亿元人民币),全力研发一套面向企业级用户的开源AI大模型体系。这不是一次普通的研发投入,而是一场从“卖芯片”到“造大脑”的彻底转身。

过去十年,英伟达靠GPU统治了AI算力市场。但如今,OpenAI、Anthropic、DeepSeek这些公司,正用模型定义新规则。英伟达不能再只做“卖铲子的人”——它要亲自下场挖金矿。

8倍于GPT-4的预算,到底在烧什么?

有人算过一笔账:OpenAI训练GPT-4花了约30亿美元,而英伟达这次的投入是它的8倍以上。这笔钱不是随便撒出去的。

据知情人士透露,英伟达内部已秘密完成一个5500亿参数的超大规模模型预训练,代号“Project Helix”。这不是为了发论文,也不是为了刷榜单,而是为了测试自己的硬件极限——从H100到下一代Blackwell架构的散热、内存带宽、网络延迟,每一个环节都要在真实负载下压到崩溃边缘。

与此同时,英伟达正以高于市场30%的薪酬,从Meta、Google、Microsoft和中国顶尖AI团队中挖角工程师。目标明确:组建一支能同时写代码、调硬件、懂工业场景的“全栈梦之队”。他们不需要做“最聪明的模型”,而是要做“最能跑在英伟达芯片上的模型”。

不闭源,也不全开源:英伟达的“中间路线”有多狠?

OpenAI把模型锁在云里,你只能调API;Meta把Llama全扔到GitHub,谁都能用,但跑起来慢、调不动。英伟达走的,是一条没人走过的路——“开放权重,封闭优化”。

这意味着:

  • 你可以下载模型权重,部署在自己的服务器上,不用依赖英伟达的云服务;
  • 但模型的底层推理引擎、量化方案、缓存调度,全都针对A100/H100/B200做了深度优化——跑在别的厂芯片上,性能直接打五折。

这招太毒了。企业想要可控、安全、可审计的AI系统,又不想被云厂商绑死。英伟达给了他们“自主权”,但让他们的选择,只能是英伟达的硬件。

一位来自德国汽车集团的AI负责人对《华尔街日报》说:“我们不信任OpenAI的黑盒,也不信任开源模型的性能。英伟达这次给出的方案,是我们三年来第一次觉得‘这可能是真能用的’。”

三年500亿美元营收?这不是梦,是算盘

摩根士丹利分析师Adam Locke在一份报告中指出,如果英伟达能在2028年前拿下全球企业级AI模型市场10%的份额,仅模型授权、定制服务和配套硬件销售,就能带来每年500亿美元的新增收入。

这不是空谈。目前全球AI模型市场约5000亿美元规模,其中80%来自云端API调用。但越来越多的银行、制造、医疗企业开始要求“本地部署+数据不出域”。英伟达的开源模型,正好卡在这个缺口上。

更关键的是,这些模型一旦被企业采用,就会深度绑定英伟达的整个生态:训练用H100,推理用GH200,存储用NVMe SSD,网络用Quantum-2 InfiniBand——一套下来,硬件订单自然跟着来。

2026年底,第一批模型将公开发布

据多个消息源确认,英伟达计划在2026年第四季度,首次对外发布首批开源模型,代号“NVIDIA Llama-2.5”和“NVIDIA CodeGen-7B”。它们不是GPT-4级别的通用模型,而是专为代码生成、金融风控、工业质检等垂直场景优化的“工具型模型”。

与Meta的Llama系列不同,英伟达不会搞“全网开源+社区狂欢”。他们将通过企业认证通道分发模型,附带官方支持、合规认证和性能调优包。你不是“能用”,而是“能安心用”。

与此同时,英伟达已与西门子、丰田、摩根大通等30多家全球500强达成初步合作意向,将在模型发布后6个月内完成首批私有化部署。

这场战役,赢的不是模型,是标准

中国公司靠开源打天下,美国公司靠闭源控生态。英伟达现在要做的,是把两者融合:你用我的模型,就得用我的芯片;你用我的芯片,就绕不开我的工具链。

这不是一场技术竞赛,而是一场“基础设施战争”。当企业不再问“哪个模型最强”,而是问“哪个模型能在我厂的服务器上跑得又快又稳”,英伟达就已经赢了半局。

2026年底,当你看到某家医院用AI诊断CT片,某家工厂用AI预测设备故障,而他们用的系统标注着“Powered by NVIDIA”——那不是广告,是新规则的开始。