纬钛机器人让机器人的手不再是干巴巴地“戳”,而是真真正地“摸”

大家好,今天想跟大家聊聊纬钛机器人是怎么把“具身智能”这块技术的门槛给踏平的。纬钛机器人的CEO李瑞在这一行浸淫了十来年,他说现在机器人都有眼睛了,深度学习跟计算机视觉让机器人能看清周围环境、规划路线。但以前的问题是,光有眼睛的机器人其实挺“瞎”的,一进真实的复杂物理世界就容易翻车。这种“感知断层”带来了不少麻烦,比如干插拔USB、精密零件装配这种活儿,位置稍微偏一点光靠眼睛看不出来,很容易导致硬件损坏;还有力气拿捏不准的时候,要么太大力把东西搞坏,要么力气太小让东西滑了或者掉了。 最近纬钛搞了个新品发布会,主题叫“触觉觉醒,灵巧进化”,一口气拿出了四个视触觉新品,涵盖了感知、执行和数据采集这几个大块头。其中最让人眼睛一亮的,就是那个专为灵巧手设计的GF515仿生指尖。这玩意儿体积只有15毫米宽、27毫米长,跟咱们的手指头差不多大小,而且还能做得更小。单只重量不到15克,但它厉害的地方在于每平方厘米能采集上万个触觉点。这密度有多高呢?差不多是人手的几百倍,连10微米那么细的纹路都能探测到。更绝的是它还能同时捕捉法向力、切向力、扭矩这些多维信息,以及物体在滑动的状态。 这就好比给机器人安上了真正的神经末梢。GF515不光知道碰到了没,还知道怎么碰到的——接触面是光滑还是粗糙、压力分布在哪、东西有没有在打滑、往哪边滑——这些细节它都能以10微米的清晰度和毫秒级的延迟给抓下来。做灵巧手的难处并不在于使出多大劲儿,而在于小空间里精准理解那种复杂的触感。GF515让机器人的手不再是干巴巴地“戳”,而是真真正正地“摸”。最小0.01牛顿的感知能力让它能感觉到比一片羽毛还轻的重量变化;最高120赫兹的刷新率让它在抓捏拨转插这些高速动作里能形成实时的闭环控制。 这可不是单纯让机器动作快一点,而是让它第一次拥有了像人手神经反射那样的节奏感。如果说GF515是给灵巧手补上了“指尖神经”,那么VT-UMI85这个视触觉数据采集系统就是帮AI把“接触数据”这块拼图给补上了。以前大家都觉得现实世界里的真实数据太难搞了——设备重、操作难、环境还得专门定制。再加上以前的UMI设备只能看到视觉数据,“接触”这一块的信息根本就不在训练体系里。 VT-UMI85打破了这个僵局。它自重只有500克,拿着就能到处跑;支持在真实场景里自然采集数据。它把视触觉、RGB-D、IMU、编码器这些多模态信息都揉在了一起,时间精度达到毫秒级,确保100%的复现率。更重要的是它不是个单独的采集盒子,而是一条完整的数据流水线入口。从数据的采集到回放,再到训练和评估,它把“采—训—验—用”这四个环节打通了。这样高校、算法团队和产业客户就不用从零开始自己拼工具链了。 李瑞透露说,纬钛机器人已经跟好几家大公司合作了。比如跟小米、国际汽车巨头还有头部物流公司这些中外500强企业都有深度合作。应用场景也挺广的,像无序抓取、精准放置装配、柔性物体操作这些典型任务都有涉及。