无问芯穹完成超7亿元融资,中国AI算力基础设施迎来关键转折
5月7日,国内AI基础设施企业无问芯穹正式宣布完成超7亿元人民币融资,创下中国AI原生基础设施领域单轮融资最高纪录。本轮融资由杭州高新金投集团与惠远资本联合领投,国兴资本、秦淮数据、广发乾和、AEF NextGen、卡莱特、中信建投资本等机构跟投,君联资本、上海国投孚腾等老股东也继续加注。这笔资金不仅规模空前,更标志着市场对“算力即生产力”这一底层逻辑的集体认可。
不造模型,只做“算力高速公路”
在各大公司争相发布大模型、比拼参数规模的当下,无问芯穹选择了一条少有人走的路:不训练模型,不开发应用,也不做终端产品。它专注做一件事——让现有的大模型跑得更快、更省电、更稳定。
其核心产品Agentic MaaS平台,目前已接入160多个主流大模型,包括GLM、Kimi、DeepSeek、通义千问等开源与闭源模型,实现“Day0即用”——新模型发布当天,就能在平台上直接调用。这不是简单的接口封装,而是通过自研的软硬协同调度系统,把模型推理的吞吐量提升2到3倍,响应延迟降低一半以上。开发者不再需要为适配不同模型耗费数周时间,而是像接入云服务一样,一键调用。
截至2026年4月底,平台日均Token调用量较2025年底增长超20倍,远超行业平均增速。这意味着,越来越多的中小企业、创业团队和高校实验室,正依赖这个平台,把AI能力嵌入自己的产品——从客服机器人、内容生成,到代码辅助、数据分析,成本更低,上线更快。
算力不是堆芯片,是让每度电都产生价值
很多人以为AI算力就是买更多GPU,但无问芯穹的团队更关注一个被忽视的指标:“电能到Token”的转化效率。换句话说,一度电能生成多少个可用的AI输出?
他们通过定制化推理引擎、动态负载调度、异构算力融合(GPU、国产芯片、甚至部分FPGA)等技术,把原本浪费在等待、空转、兼容上的算力“捡回来”。在实际部署中,客户反馈:同样的模型,在无问芯穹平台上运行,电费节省30%以上,服务稳定性提升至99.95%。
这一效率优势,正被越来越多的行业客户验证:某头部电商用该平台支撑智能客服系统,月均成本下降42%;一家AI教育公司通过平台实现7×24小时个性化答疑,用户留存率提升近三成。
从“模型竞赛”到“效率革命”
过去三年,中国AI产业的焦点在“谁的模型更强”。而今天,真正的瓶颈已转向:谁能用更低的成本,把模型能力稳定、高效地交付给终端用户?
无问芯穹的融资规模和客户增长,印证了这一趋势的加速。资本市场不再只看模型参数,而是看“算力利用率”“单位Token成本”“服务可用性”这些硬指标。这背后,是中国AI产业从“炫技”走向“实用”的关键转折。
创始人在内部信中提到:“我们不是要造一艘更快的船,而是要建一条能承载所有船、且不堵车的运河。”这句话,或许正是未来AI基础设施的真正使命。
随着AI从“实验室概念”进入“日常生产工具”,无问芯穹正在成为无数开发者背后看不见的引擎。它不刷热搜,不发发布会,但每天有数以亿计的AI请求,正从它的系统中平稳通过——这才是真正的基础设施力量。