最新消息:关注人工智能 AI赋能新媒体运营

全球首个跨本体视触觉大模型数据集“白虎-VTouch”发布

科技资讯 admin 浏览

让机器人“摸得准”,才是真智能

你有没有想过,为什么现在的机器人能看清东西,却总在拿杯子、拧螺丝时手忙脚乱?不是程序错了,是它“没手感”。

2026年1月27日,国家地方共建人形机器人创新中心联合清华、哈工大、中科院自动化所等十余家团队,正式开源了“白虎-VTouch”——全球首个大规模跨本体视触觉数据集。这不是实验室里的概念演示,而是真实机器人在工厂、家庭、医院里摸了6万多分钟才攒下来的“手感记忆”。

6万分钟,不是算法算出来的,是机器人“练”出来的

这6万分钟,是120多台不同机器人在真实环境中反复接触、抓握、滑动、挤压各种物体的记录。从玻璃杯的轻微晃动,到金属零件的微小形变,再到布料的褶皱反馈,每一秒都来自传感器真实采集。

数据里没有滤镜,没有模拟,只有: - 120万组高清视觉帧(1080p@30fps) - 80万组高精度触觉信号(含压力、振动、温度) - 400万组关节位姿与力矩数据 - 覆盖500+种日常物品:陶瓷碗、塑料瓶、手术缝合线、带油污的扳手、冰袋、毛巾……

这些数据不是摆拍,是机器人在无人干预下,连续72小时自主探索的结果。有些触觉信号,连工程师都没想到——比如,一个空塑料瓶被捏扁时,内壁的气压变化会引发特定的振动频率。

不只是一台机器人能用,所有机器人都能“抄作业”

过去,一个机器人学会“拿鸡蛋”,得从头训练。换一台新机器,哪怕长得差不多,也得重来。

“白虎-VTouch”第一次做到了“跨本体”——它不绑死在某款机器人上。人形机器人、七轴机械臂、轮式协作机器人、甚至带夹爪的无人机,都在同一套数据标准下采集。这意味着:

  • 你家的扫地机器人,可以借用人形机器人“摸碗”的经验,学会不打翻水杯;
  • 工厂的机械臂,不用重新标定,就能用上医院手术机器人“捏血管”的力度控制逻辑;
  • 开源后,哪怕你只有3000块的开发板,也能下载数据,训练出能摸准螺丝松紧的算法。

这不是“数据集”,是机器人界的“通用手感库”。

视觉失灵时,触觉才是救命的那双手

为什么现在机器人在厨房、手术室、电子厂总出错?因为它们太依赖摄像头了。

玻璃杯反光?看不见。 灯光昏暗?看不清。 透明薄膜包裹的零件?完全盲区。 手指沾了油?视觉系统直接崩溃。

而“白虎-VTouch”里,有超过1.2万分钟的“视觉失效场景”数据——机器人在看不见的情况下,仅靠触觉完成组装、拆卸、分拣。这些数据,正在被国内多家工业机器人公司用于升级产线末端执行器。一位深圳的工程师说:“用了这套数据,我们良品率提升了23%,调试时间从两周缩到三天。”

谁在用?已经有人悄悄落地了

据公开信息,该数据集开源一周内,已被超过200个团队下载,包括:

  • 小米人形机器人团队——用于优化家务机器人抓取餐具的力度控制;
  • 微创医疗——训练手术辅助机械臂感知组织软硬程度;
  • 中科院深圳先进院——结合AI模型,实现“盲摸”识别钥匙齿形;
  • 海外团队如MIT、ETH Zurich也已接入,用于多模态感知模型训练。

更关键的是,数据集附带完整的标注工具链和仿真接口,支持直接导入PyBullet、Isaac Sim等主流平台。开发者不用从零搭建物理环境,下载即用。

真正的突破,是让机器人“有经验”

过去我们总说AI要“像人一样思考”,但人最厉害的不是思考,是“经验”——你闭眼也能摸出钥匙在哪,是因为你摸过上千次。

“白虎-VTouch”第一次让机器人拥有了这种“经验”。它不靠预设规则,不靠人工编程,而是从海量真实接触中,自己学会了:什么力度会碎,什么角度会滑,什么材质会粘。

这不是未来科技,是正在发生的改变。当一个机器人能不看一眼,就稳稳捏住你刚从冰箱拿出来的冰啤酒瓶——那才是真正的智能,开始有了温度。