微软搞了个新机器人ai 模型,叫“rho-alpha”

美国科技企业微软公司最近有个大动静,搞出了个新机器人AI模型,叫“Rho-alpha”。这东西是微软研究院主导做的,核心目的是想让智能体跟现实世界好好互动。以前的机器人大多只能干些按固定程序走的活儿,碰到情况复杂、没法预测的场面就不行了。现在这个Rho-alpha不一样,微软想把它变成物理AI的一部分,让机器不仅能看懂图像、听懂人话,还能摸得着东西,有了触觉反馈后就能自动调整动作。 在技术上,Rho-alpha最大的亮点就是搞了个感知、决策、行动的闭环。它是基于Phi那个视觉语言模型弄出来的,特别加了个触觉模块。这样一来,机器在双手协作干活的时候,不光能“看明白”,“听懂”指令,还能通过感觉自己手上的力气、物体质地来灵活变动操作策略。以后还打算往里塞更多力传感器的信号。 微软这边也说了,这套系统不光靠预训练好的模式死板运行。要是操作跑偏了,人可以通过3D设备给它纠正一下,机器把这些反馈吃进去就能把下次干得更好。而且它们还在琢磨让机器人自己学会适应不同人的习惯偏好。 为了把数据不足、采集难的老大难问题给解决了,Rho-alpha用了好多种数据训练的法子。既用了真的机器人演示视频,也搞了很多Azure云上的仿真数据来合成海量数据。这些数据结合在一起练出来的模型就很有“泛化能力”。 微软研究院的企业副总裁阿什利·洛伦斯说过,以前机器技术进步没那么快,这是因为把感知、推理和行动全打通了才带来了新突破。这次的Rho-alpha应该能让机器人在乱糟糟的环境里更自主点,以后人和机器一起干活的方式可能都得变一变。 计划是先通过早期访问计划给合作伙伴用用看,以后再扩大范围。现在已经在双臂机器人和类人机器人身上试了试效果怎么样了。 这就好比是个信号,说明全球科技圈都在往实体物理世界扩张智能化了。既然能把指令变成实体动作,又能在动态环境里自己学习适应,那未来在工厂、物流、医院甚至家里肯定会有不少新玩法儿等着呢。 不过呢,想要真的安全又符合规矩地大规模用起来还得费点劲。这条路刚开头,大家还得盯着看后面怎么发展呢。