最新消息:关注人工智能 AI赋能新媒体运营

Runpod:从Reddit帖子到1.2亿美元营收的AI云黑马

科技资讯 admin 浏览

从地下室挖矿到AI算力新贵:Runpod的野路子逆袭

2021年底,新泽西州的一间普通地下室里,两个程序员Zhen Lu和Pardeep Singh把攒了半年工资买的十几块显卡拼成了一台挖矿机器。他们没想过能靠这个发财,只是想试试能不能用闲暇时间赚点外快。结果没多久,以太坊“合并”上线,挖矿利润一夜归零。设备闲置,钱也砸进去了,他们盯着满屋子的GPU,心里冒出一个更实际的问题:这些机器,还能干点啥?

两人都是搞开发的,深知当时想跑个AI模型有多折腾——要自己装驱动、调环境、等服务器响应,光是配置环境就能耗掉一整天。他们干脆一拍脑袋:不如自己做个平台,让开发者能像开网页一样,点一下就用上显卡。

不投广告,不融资,靠Reddit拉来第一批用户

没钱请市场团队,也没人脉找投资人,他们决定用最原始的方式:发帖。

他们在Reddit的r/MachineLearning和r/LocalLLaMA这些开发者聚集地发了一条帖子:“免费送你一台GPU服务器,只要你用一周,告诉我哪里卡、哪里难用。”没人当真,但几天后,第一批30个开发者真来了。有人测试Stable Diffusion出图,有人跑代码训练模型,有人甚至把Runpod当成了临时的“云实验室”。反馈一条条涌进来,他们改了又改,没用一个月,第一个付费用户出现了。

没花一分钱广告费,靠口碑和真实体验,9个月内,他们靠用户付费赚到了100万美元。没有VC注资,没有免费试用,连折扣都没打。他们只做一件事:让用过的人,不想走。

不建机房,不买服务器,靠“分钱模式”快速扩张

用户多了,显卡不够了。买新卡?一台高端A100要上万美元,建数据中心?成本高到不敢想。他们没走传统云厂商的老路,而是找到一批有闲置机房的中小数据中心,谈了个简单合作:你提供场地和电力,我们提供软件和客户,收入对半分。

这招太狠了。不用背负债,不用押资金,不用等审批,几周内,Runpod的算力节点从北美一路铺到欧洲、东南亚。客户要哪的服务器,他们就能调哪的资源。没有“自建机房”的包袱,反而比大厂更灵活。

巨头悄悄用上了,风投终于找上门

2023年,OpenAI的几个工程师在内部测试时发现,Runpod跑Llama 2的速度比某大厂平台快30%,还支持一键部署LoRA微调。没打招呼,他们就偷偷把项目迁过去了。接着是Perplexity,再是国防AI公司Anduril——这些公司不发新闻稿,但账单真实地在增长。

2024年初,戴尔科技资本和英特尔资本找上门。他们不是来看PPT的,是来看真实账单和用户截图的。2000万美元种子轮,没要估值对赌,没要董事会席位。GitHub前CEO Nat Friedman甚至自己掏钱投了,他说:“我见过太多AI公司吹概念,但Runpod是真有人在用。”

现在,Runpod有超过50万开发者在用,覆盖全球31个地区,年收入突破1.2亿美元。他们没请过公关公司,没上过科技媒体头条,但你打开GitHub,随便翻几个AI项目,README里常能看到一行小字:“训练环境:Runpod”。

下一步:不做云,做AI代理的“操作系统”

创始人说,他们不只想卖GPU。现在越来越多的AI代理(Agent)需要持续运行、自动响应、多任务调度——这不是单次训练能解决的。Runpod正在开发一套底层工具,让开发者能像搭积木一样,组合多个AI模型、数据源和API,跑出真正能“干活”的智能体。

他们没打算对标AWS或Azure。他们的目标很朴素:让下一个写AI应用的人,不用再为环境配置骂娘。不用等审批,不用交押金,不用学一堆命令行。点一下,就能跑。

他们还在地下室,只不过现在,地下室里跑着的是整个AI生态的算力网络。

AI,机器人