最新消息:关注人工智能 AI赋能新媒体运营

MatX 完成5亿美元融资,发布MatX One芯片,直击LLM吞吐瓶颈

科技资讯 admin 浏览

MatX 融资5亿美元,挑战英伟达的AI芯片霸权

2026年2月24日,一家由前谷歌TPU核心团队成员创立的AI芯片公司MatX,宣布完成5亿美元B轮融资。这笔资金来自世芯电子(Alchip)、美满电子(Marvell)等半导体巨头,以及红杉资本、a16z、软银愿景基金等顶级投资机构。这不是一次普通的融资——它标志着一家初创公司,正试图用一块全新的芯片,撬动英伟达主导了近十年的AI算力市场。

MatX的底气,来自他们正在打磨的“MatX One”芯片。这块芯片不是在原有架构上修修补补,而是从底层重新设计,直击当前大模型推理中最头疼的问题:想跑得快,就得烧电;想省电,又跑不动。很多公司都在说“高效”,但MatX One 的工程师团队,把这句话变成了可量化的性能指标。

MatX One:不是更强大,而是更聪明

传统AI芯片用大而笨重的矩阵做计算,像一辆满载的卡车,开起来稳,但转弯慢、堵车就歇菜。MatX One 采用“可分割脉动阵列”架构——简单说,就是把一个大阵列拆成多个能自由组合的小单元。需要处理长文本?就拼成大阵列,吞吐拉满;需要快速响应用户提问?就切分成小阵列,延迟压到极致。这种“动态拼装”能力,让硬件资源利用率提升近40%,业内实测数据已接近英伟达H100的水平,但功耗低了近30%。

内存是另一大突破。大多数芯片用HBM堆高带宽,但延迟高;用SRAM响应快,但容量小。MatX One 把两者融合进同一颗芯片,通过智能数据预取和分层缓存,让模型在处理128K上下文时,不再像“翻字典”一样卡顿。一位参与测试的云服务商技术负责人透露:“我们用它跑Llama 3.1的推理,用户等待时间从800毫秒降到420毫秒,而电费账单直接砍了三分之一。”

不只是跑模型,还要让模型更便宜

对企业和开发者来说,AI不是技术炫技,而是成本问题。一个Token的成本,决定着产品能不能活下去。MatX宣称,MatX One 的单位推理成本比当前主流方案低45%以上。这意味着,一个中型AI客服系统,每月的算力开支能从20万美元降到11万。这不是远景,他们已经和三家国内头部大模型公司达成早期试点,预计2026年第四季度开始交付首批芯片。

更关键的是,MatX 没有走“自研代工”的高风险路线,而是与美满电子深度绑定,利用其成熟的封装和供应链能力,确保芯片能稳定量产。这在一堆烧钱烧到融不到下一轮的AI芯片创业公司里,显得格外务实。

全球AI芯片战场,没人再只看英伟达

MatX 不是孤军奋战。2025年底,SambaNova发布第五代RDU芯片,性能比上一代提升2.8倍,已进入微软Azure的测试名单。Positron的Asimov芯片,实测每瓦算力是英伟达Rubin架构的4.7倍,被多家欧洲AI初创公司列为首选。而国内,中科院微电子所团队在2025年11月发布了一款柔性AI芯片,成本不足1美元,能弯曲4万次不损坏——这为智能手环、可穿戴健康监测设备打开了新空间。

就连英特尔,也悄悄把自家的Gaudi 3芯片降价30%,并联合多家云厂商推出“AI算力补贴计划”。市场正在从“买GPU”转向“选方案”。英伟达依然强大,但它的护城河,正被一群更懂工程、更懂成本、更懂实际场景的公司,一块一块地挖开。

谁在为未来买单?

MatX 的目标很明确:2027年,让中小企业也能用上媲美大厂的AI推理能力。他们不追求“世界第一”的算力榜单,而是盯着每一个被算力成本卡住的场景——在线教育的实时问答、医疗影像的秒级分析、跨境电商的多语种客服……这些地方,不需要最顶级的芯片,只需要一颗“够用、够便宜、够稳定”的芯片。

当AI从实验室走向千行百业,真正的赢家,不是跑得最快的人,而是让所有人跑得起来的人。