微软研究院这回推出了一个专门用来给机器人物理交互的新系统,目标是把这些设备变成能干杂活的多面手。现在的机器人在像工厂那种严格排队的地方干活还行,一旦碰到乱七八糟的野外环境,自己动手能力就立马跟不上了。老的机器人全靠剧本演戏,稍微有点风吹草动就转不动了,这就成了拦住它们走进家门的拦路虎。要解决这事儿,就得看感知、脑子转得快不快还有动手行不行这三个部分能不能配合好。一方面,机器人往往只能看个大概,分不清东南西北;另一方面,它们做计划的时候全是照着以前画好的图纸来,现场一变就不知道咋办。再加上以前搞机器人训练太难、数据又少,研发进度一直磨洋工。为了补上这个窟窿,微软研究院把自家现成的视觉语言技术拿过来用了。不仅让机器人能听懂人话、看懂图片,还加了手脚能摸一摸东西的触觉系统,这么一来机器就知道自己拿的是什么东西、环境有啥变化了。这个系统最牛的地方在于能自己学东西。平时干活的时候要是跑偏了,只要用手机点两下就能纠正过来,系统把这些教训记下来下次就聪明点了。这样一来新手也能快速上手用,还能慢慢学着听使唤。 在数据这块儿,研究团队也有自己的小算盘。他们用电脑生成一堆假数据当陪练,再加上真机器人拍的视频混在一起用。虽然这样省了不少力气采数据,但也保证了训练的效果。 这套技术要是用在工厂或者送货上门的物流里,肯定能让活儿干得更利索。以后机器人不再是个只会机械重复的机器,而是变成了能跟人配合、懂得变通的小伙伴。 以后咱们用机器人的时候肯定会越来越方便,但也得防着点别把人给砸了或者伤到别人。怎么让这些家伙在各种各样的场景里都稳稳当当、不出岔子,不光是搞研发的难题,也是商家得头疼的事儿。机器智能要想彻底融入现实生活,光是技术进步还不够,还得看大家怎么管理、怎么用才行。