让机器人“摸得准”,才是真智能
你有没有想过,为什么现在的机器人能看清东西,却总在拿杯子、拧螺丝时手忙脚乱?不是程序错了,是它“没手感”。
2026年1月27日,国家地方共建人形机器人创新中心联合清华、哈工大、中科院自动化所等十余家团队,正式开源了“白虎-VTouch”——全球首个大规模跨本体视触觉数据集。这不是实验室里的概念演示,而是真实机器人在工厂、家庭、医院里摸了6万多分钟才攒下来的“手感记忆”。
6万分钟,不是算法算出来的,是机器人“练”出来的
这6万分钟,是120多台不同机器人在真实环境中反复接触、抓握、滑动、挤压各种物体的记录。从玻璃杯的轻微晃动,到金属零件的微小形变,再到布料的褶皱反馈,每一秒都来自传感器真实采集。
数据里没有滤镜,没有模拟,只有: - 120万组高清视觉帧(1080p@30fps) - 80万组高精度触觉信号(含压力、振动、温度) - 400万组关节位姿与力矩数据 - 覆盖500+种日常物品:陶瓷碗、塑料瓶、手术缝合线、带油污的扳手、冰袋、毛巾……
这些数据不是摆拍,是机器人在无人干预下,连续72小时自主探索的结果。有些触觉信号,连工程师都没想到——比如,一个空塑料瓶被捏扁时,内壁的气压变化会引发特定的振动频率。
不只是一台机器人能用,所有机器人都能“抄作业”
过去,一个机器人学会“拿鸡蛋”,得从头训练。换一台新机器,哪怕长得差不多,也得重来。
“白虎-VTouch”第一次做到了“跨本体”——它不绑死在某款机器人上。人形机器人、七轴机械臂、轮式协作机器人、甚至带夹爪的无人机,都在同一套数据标准下采集。这意味着:
- 你家的扫地机器人,可以借用人形机器人“摸碗”的经验,学会不打翻水杯;
- 工厂的机械臂,不用重新标定,就能用上医院手术机器人“捏血管”的力度控制逻辑;
- 开源后,哪怕你只有3000块的开发板,也能下载数据,训练出能摸准螺丝松紧的算法。
这不是“数据集”,是机器人界的“通用手感库”。
视觉失灵时,触觉才是救命的那双手
为什么现在机器人在厨房、手术室、电子厂总出错?因为它们太依赖摄像头了。
玻璃杯反光?看不见。 灯光昏暗?看不清。 透明薄膜包裹的零件?完全盲区。 手指沾了油?视觉系统直接崩溃。
而“白虎-VTouch”里,有超过1.2万分钟的“视觉失效场景”数据——机器人在看不见的情况下,仅靠触觉完成组装、拆卸、分拣。这些数据,正在被国内多家工业机器人公司用于升级产线末端执行器。一位深圳的工程师说:“用了这套数据,我们良品率提升了23%,调试时间从两周缩到三天。”
谁在用?已经有人悄悄落地了
据公开信息,该数据集开源一周内,已被超过200个团队下载,包括:
- 小米人形机器人团队——用于优化家务机器人抓取餐具的力度控制;
- 微创医疗——训练手术辅助机械臂感知组织软硬程度;
- 中科院深圳先进院——结合AI模型,实现“盲摸”识别钥匙齿形;
- 海外团队如MIT、ETH Zurich也已接入,用于多模态感知模型训练。
更关键的是,数据集附带完整的标注工具链和仿真接口,支持直接导入PyBullet、Isaac Sim等主流平台。开发者不用从零搭建物理环境,下载即用。
真正的突破,是让机器人“有经验”
过去我们总说AI要“像人一样思考”,但人最厉害的不是思考,是“经验”——你闭眼也能摸出钥匙在哪,是因为你摸过上千次。
“白虎-VTouch”第一次让机器人拥有了这种“经验”。它不靠预设规则,不靠人工编程,而是从海量真实接触中,自己学会了:什么力度会碎,什么角度会滑,什么材质会粘。
这不是未来科技,是正在发生的改变。当一个机器人能不看一眼,就稳稳捏住你刚从冰箱拿出来的冰啤酒瓶——那才是真正的智能,开始有了温度。