Upscale AI:一家没发布产品,却值20亿美元的AI芯片新贵
成立不到一年,还没推出任何产品,Upscale AI 却已经完成了三轮融资,最新一轮估值直奔20亿美元,计划募资1.8亿到2亿美元。这听起来像科幻情节——但现实中,它正在发生。
这家总部位于硅谷的初创公司,2023年9月拿到1亿美元种子轮,今年1月又融了2亿美元A轮,投资方包括老虎环球、Xora Innovation 和 Premji Invest——全是业内以“眼光毒、出手快”著称的玩家。现在,他们正准备再投一笔,继续押注一个连原型机都没公开的团队。
为什么?因为他们不造模型,不搞聊天机器人,也不做SaaS工具。Upscale AI 的目标,是重新设计AI的“心脏”和“神经系统”——定制AI芯片,以及让这些芯片之间能高效、低成本地通信的底层架构。
当前的AI训练靠的是英伟达的H100、GB200这类GPU集群,但它们价格昂贵、功耗惊人,而且一旦数量上去,通信瓶颈就成了最大软肋。很多大厂已经开始头疼:算力上去了,但数据传不快,钱花得越来越多,效率却在递减。Upscale AI 想解决的,就是这个“看不见的堵点”。
据知情人士透露,该公司正在开发一种新型互联架构,能显著降低芯片间数据传输延迟,同时减少对传统PCIe总线的依赖。这不是理论研究,而是已经进入工程验证阶段。有消息指出,他们与一家美国本土晶圆厂合作,正在试产首批定制芯片,预计2025年初会向早期合作伙伴提供测试样片。
虽然没发过产品,但他们的客户名单已经在悄悄增长。据《The Information》报道,至少有两家美国头部AI公司和一家云服务商,已与Upscale AI 签署了早期技术评估协议。这些公司不是在“等风口”,而是在为下一代AI训练集群做准备。
行业里流传一句话:“AI的下一场战争,不在算法,而在硅片和互联。” Upscale AI 的创始人团队来自英伟达、AMD和Google TPU项目的核心工程师,他们见过太多因硬件瓶颈被迫推迟项目的日子。现在,他们想亲手改写规则。
市场没有盲目乐观。20亿美元的估值,确实高得让人屏息。但如果你看过AI算力需求的曲线——每6个月翻一倍——就会明白,基础设施的瓶颈,才是真正的“天花板”。而Upscale AI,正在悄悄地,把那块天花板往上抬。
他们不卖软件,却可能决定未来AI的运行成本
你用的每一个AI应用,背后都是一堆芯片在拼命工作。但你从来不知道,这些芯片之间传数据有多慢、多贵。
举个例子:训练一个千亿参数模型,可能需要上千块GPU。但真正拖慢进度的,往往不是单块芯片的算力,而是它们之间“说话”的速度。就像一群人开会,每个人都懂技术,但中间的对讲机坏了,效率就崩了。
Upscale AI 的方案,不是换更好的对讲机,而是重新设计整个会议室的结构。他们正在构建一套开放的通信协议和硬件接口,目标是让不同厂商的芯片也能“无缝协作”——这可能打破英伟达目前在生态上的垄断。
这不是空谈。OpenAI、Meta、Anthropic这些公司,都在私下评估“去NVIDIA化”的可能性。而Upscale AI 的技术路径,恰好踩在了这个需求的正中央。
投资人不关心你有没有APP,他们关心的是:你的技术,能不能让客户省下10%的算力成本?能不能让训练时间从7天缩短到5天?能不能让下一代大模型,不再被硬件卡脖子?
Upscale AI 没有官网,没有产品页面,连LinkedIn都更新得很少。但它的办公室里,每天都有来自全球顶级AI实验室的工程师来参观。他们不是来谈合作的,是来“看未来”的。
2025年,如果你发现AI训练成本突然下降,或者某个新模型的训练速度比去年快了一倍——别急着夸算法。可能,是这家连产品都没发布的公司,悄悄改写了底层规则。