蚂蚁灵波科技入选EAI-100榜单,LingBot-VLA重塑具身智能落地路径
3月22日,“智汇金陵·AI开源人才峰会暨魔搭社区开发者大会”在南京举行。会上,魔搭社区联合CCF智能机器人专委会、工信部装备数字孪生技术重点实验室等权威机构,正式发布“EAI-100”——2025年度具身智能领域最具影响力的百项成果与人物榜单。蚂蚁灵波科技凭借自研的LingBot-VLA模型和首席科学家沈宇军的突出贡献,同时入选“年度十大突破”与“先锋人物20”两大核心榜单,成为少数在技术突破与个人影响力上双线开花的团队。
EAI-100评选不看论文数量,不追热点名词,只问三个问题:有没有真正跑通机器人?有没有让别人能用上?有没有改变行业做事情的方式?今年入选的既有清华、北大、港大等高校的前沿研究,也有宇树科技、智元机器人、银河通用等一线机器人企业的工程落地成果。而蚂蚁灵波科技,是少数从算法到数据到开源工具链全栈自研,并已进入真实产线验证的团队。

(图说:蚂蚁灵波科技首席科学家沈宇军入选EAI-100先锋人物榜单,与宇树科技王兴兴、北大王鹤等业界公认的技术推动者并列)
LingBot-VLA:不是更聪明,而是更便宜、更通用
过去一年,很多公司都在喊“大模型+机器人”,但真正能落地的少之又少。成本高、数据难、迁移难,是普遍痛点。LingBot-VLA的突破,不在“多模态”“多任务”这些听起来高大上的词,而在于它让一个模型,能同时驾驭9种不同结构的双臂机器人——从实验室的UR10到工业产线的KUKA,从四指夹爪到吸盘末端,无需重新训练,只需80条演示视频,就能上手新任务。
这背后是超过20,000小时的真实机器人操作数据积累。不是仿真,不是摆拍,是工厂里、仓库中、流水线旁,机器人一遍遍试错、失败、重来的原始数据。LingBot-VLA和团队自研的LingBot-Depth空间感知模型配合,能在复杂光照、遮挡、反光的环境下,精准判断物体位置和姿态,误差控制在毫米级。
更关键的是效率。传统训练一个新任务,可能要几千条数据、几周时间、几十张显卡。LingBot-VLA通过底层代码重构,训练吞吐量比主流框架快1.5到2.8倍,同等条件下,算力成本直降60%。目前,蚂蚁灵波已将模型、训练工具、数据处理脚本全部开源,GitHub页面上线不到两个月,已有超过1,200个开发者下载使用,其中不乏高校实验室、中小型机器人公司,甚至个人开发者在自家机械臂上跑通了抓取、装配、码垛等任务。
沈宇军:从论文到产线,他带着团队把路走通了
沈宇军不是那种常在媒体露面的“明星科学家”。他更像一个工程师出身的领路人——在港中文读博时,他专注的是图像生成和视觉理解;回国加入蚂蚁后,他带着团队一头扎进机器人实验室,从零搭建数据采集系统,自己调试传感器、改代码、半夜去工厂蹲点看机器人出错。
2024年1月,他带队一口气开源了四套核心模型:LingBot-Depth(空间感知)、LingBot-VLA(通用控制)、LingBot-World(世界建模)、LingBot-VA(视频到动作)。这不是发论文的“组合拳”,而是为机器人装上“眼睛、大脑、记忆和手脚”的完整链条。外界评价他“不玩概念,只做能用的东西”。
他的团队现在每天都在和机器人“较劲”:怎么让机器人在杂乱货架上准确抓起一个被压扁的纸箱?怎么让它在传送带速度波动时稳定分拣?怎么让它在没有GPS、没有精准定位的仓库里自主导航?这些问题,没有教科书答案,只能靠一遍遍实测。
今年,LingBot-VLA已在蚂蚁物流的几个试点仓投入使用,负责分拣小件包裹。不是替代人工,而是辅助人——当人忙不过来时,机器人能顶上;当人需要休息时,机器人能持续工作。效率提升30%,错误率下降近一半。这不是PPT里的“未来”,是今天正在发生的改变。
中国具身智能,正在走出自己的节奏
过去几年,我们总在看国外的OpenAI、Google DeepMind、Tesla Optimus。但真正的技术生态,不是靠一家公司撑起来的,而是靠开源、靠协作、靠一批愿意把技术拿出来和别人共享的人。
蚂蚁灵波这次没有藏着掖着,而是把模型、工具、数据处理流程全放出来。这背后是一种判断:具身智能不是单点突破的游戏,而是系统工程。谁先让开发者能用、敢用、愿意改,谁就能聚集更多人一起往前推。
现在,越来越多的团队开始用LingBot-VLA做二次开发:有人把它用在康复机器人上,有人用在农业采摘上,还有高校实验室把它作为教学平台。这不是“一个模型火了”,而是“一条路被走通了”。
沈宇军说:“我们不追求第一个发布,只追求第一个能稳定跑起来。”
从实验室到仓库,从代码到机械臂,中国具身智能不再只是论文里的曲线和参数,它正在变成流水线上的一次抓取、一次转身、一次无声的协作。而这,才是技术真正的价值。