Anthropic悄然布局自研AI芯片,为Claude的爆发式增长铺路
据路透社最新报道,生成式AI公司Anthropic正秘密评估自研AI芯片的可行性。这不是一次简单的技术升级,而是一场关乎未来竞争力的底层重构。随着旗下大模型Claude在全球企业与开发者中的使用量持续飙升,公司内部已形成共识:光靠买芯片,迟早会被卡脖子。
2025年底,Anthropic年收入还不到100亿美元;到2026年4月,这一数字已冲破300亿。短短一年,收入翻了三倍多。这笔钱不是躺在账上吃利息的——它正在被重新分配,一部分砸向全球数据中心的扩建,另一部分,悄悄流向了芯片设计的可行性研究。
尽管目前还没有成立独立的芯片团队,也没有公开招聘硬件工程师,但知情人士透露,公司内部已启动多轮技术评估,重点围绕“如何让Claude的推理效率提升40%以上”。这不是空谈——他们发现,当前采购的谷歌TPU和英伟达H100,在处理Claude特有的长上下文推理时,存在明显的资源浪费。
为什么非得自己造芯片?
OpenAI在2023年就宣布自研芯片“Project Cerebras”,Meta也早在2022年启动了“MTIA”项目。Anthropic不是跟风,而是被现实逼出来的选择。
2025年第四季度,全球AI芯片供应再度吃紧。亚马逊和谷歌虽是Anthropic的长期合作伙伴,但他们的优先级是服务整个云生态,不是单一家客户。当Claude的API调用量在周末突然翻倍,Anthropic的工程师只能眼睁睁看着训练任务排队,等芯片资源。
“我们不是不想买,是买不到合适的。”一位匿名高管对媒体坦言,“市面上的芯片都是为通用模型设计的,但Claude的架构更像一辆定制赛车——你不能指望加油站的普通汽油让它跑出最高速。”
自研芯片的前期投入预计在5亿美元左右,但这笔钱花得值。一方面,长期看能省下每年数十亿美元的算力采购费;另一方面,芯片架构可以深度适配Claude的注意力机制和稀疏激活策略,让同样的功耗,跑出更长的上下文、更快的响应速度。
软硬一体,才是AI的下一站
Anthropic的计划不是“造一颗芯片”那么简单。它背后是一整套“软硬协同”的战略:从模型架构设计之初,就考虑硬件限制;从芯片布线开始,就预留模型推理的最优路径。
这和特斯拉自研FSD芯片、苹果自研M系列芯片的逻辑如出一辙——当软件和硬件不再互相妥协,性能的跃升是指数级的。业内预测,如果Anthropic能在2027年推出第一代定制AI芯片,Claude 4的响应速度有望比当前版本快一倍,而能耗降低30%以上。
目前,公司仍在与谷歌、博通保持紧密合作,继续采购TPU和ASIC,但内部已设立“算力自主化”专项组,由前AMD架构师带队,秘密推进芯片原型设计。知情人士称,团队正在测试一种新型“动态稀疏计算单元”,专门用于处理Claude中高达90%的低活跃度神经元——这在通用芯片上是无法实现的。
全球AI竞赛早已进入下半场。谁掌握算力的底层逻辑,谁就掌握定价权。Anthropic不打算再当“租客”了。他们要的,不只是更好的模型,而是一整套自己说了算的基础设施。
