36kr-科技 2024年07月08日
相隔3000英里,用苹果头显遥控机器人,UCSD、MIT华人团队开源TeleVision
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_guoji1.html

 

来自 UCSD 和 MIT 的华人团队开发了一个名为 Open-TeleVision 的通用框架,它允许用户通过 VR 设备远程操控机器人,实现精确的任务操作。该框架提供立体式感知环境,将操作者的动作镜像到机器人,创造出沉浸式的体验。Open-TeleVision 可用于收集机器人学习所需的数据,并能应用于各种场景,例如远程操控机器人进行取样、分析、装配等任务。

🤔 **Open-TeleVision 框架的创新之处在于它提供了沉浸式的远程操作系统,将操作者的动作精确地镜像到机器人,创造出一种身临其境的体验。** 用户可以使用 VR 设备、笔记本、iPad 或手机来控制机器人,仿佛操作者的思维被传输到了机器人的身体中。这种沉浸式的体验让操作者能够更直观地控制机器人,并提高操作效率。

🤖 **Open-TeleVision 框架可以用于收集机器人学习所需的数据。** 现实生活中,机器人能够学习的数据非常少。远程操控的方法可以帮助收集真实机器人数据,用于训练机器人的模仿学习算法,从而提高机器人的智能水平。

💡 **Open-TeleVision 框架具有广泛的应用场景。** 例如,它可以用于远程操控机器人进行取样、分析、装配等任务,还可以用于危险环境下的作业,例如建筑工地的施工、核电站的维修等。此外,Open-TeleVision 框架还可以用于娱乐领域,例如操控机器人陪人玩游戏、互动等。

🚀 **Open-TeleVision 框架的技术原理包括动作重定向、逆运动学等。** 研究人员基于 Vuer 开发了一个网络服务器,将操作者的动作以 SE(3) 的形式流式传输到服务器,服务器负责处理人类到机器人的动作重定向。机器人以每只眼睛 480x640 的分辨率流式传输立体视频,整个循环以 60Hz 的频率进行。

🚧 **Open-TeleVision 框架仍有待改进的地方。** 例如,系统缺乏触觉反馈,这在需要大量触觉任务中会造成限制。此外,系统还需要进行更多用户研究,以优化用户体验。

📈 **Open-TeleVision 框架的出现表明远程操控技术正在不断发展,未来将会有更广泛的应用场景。** 随着技术的不断进步,远程操控技术将为人们的生活带来更多便利和可能性。

💻 **Open-TeleVision 框架的技术细节包括:** 硬件配置、实验结果、模仿学习算法、泛化能力、用户研究等。

✅ **Open-TeleVision 框架的应用领域包括:** 数据收集、模仿学习、危险环境作业、娱乐、医疗等。

现实中,机器人收据收集可以通过远程操控实现。来自UCSD、MIT的华人团队开发了一个通用框架Open-TeleVision,可以让你身临其境操作机器人,即便相隔3000英里之外。

你是否曾想过,自己身处某地,可以控制几千公里以外的「机器人」本体?

这个想法,最近被来自UCSD和MIT的华人学者们实现了。

UCSD位于加利福尼亚州,MIT位于马萨诸塞州,这两地之差,约3000英里(4800公里)。

不过,MIT的研究人员竟通过头戴Apple Vision,实现了远程操控UCSD实验室中的机器人,效果让人为之惊叹。

只见人类空手做出了手持易拉罐的动作,机器人在另一边也做出了同步的动作,然后依次将6罐芬达放置在了盒子里。

完成之后,人类做了OK、以及?手势,机器人也跟着有模有样,做了出来。

这一想法之所以能够实现,背后源于研究者提出了一个沉浸式的远程操作系统——Open-TeleVision。

论文地址:https://robot-tv.github.io/resources/television.pdf

Open-TeleVision创新之处在于,可以提供立体式感知环境,实现操作者动作到机器人的精确镜像,创造出一种沉浸式体验。

正如论文作者所言,仿佛操作者的思维被传输到了机器人的身体中。

值得一提的是,你不仅可以用头显,还可以用笔记本、iPad、甚至是手机,完成对机器人的远程操控。

那么,这项研究意义何在?

现实生活中,机器人能够学习的数据非常少。远程操控的方法,可以用于收集机器人行示范中学些所需的真实机器人数据。

研究人员正式希望通过Open-TeleVision这一方式,进一步帮助这一领域探索出更多的场景数据。

远程操控,让机器人替人类打工

可以畅想下,有了这样的技术,我们未来生活会有怎样的巨变?

在实验室闷头苦干的人不一定非得是自己,你可以在家即可操控机器人,取样本、分析都能完成。

而且流水线上的工人们,可能要被这些机器人逐渐取代。看着将耳塞精准熟练地装进透明的盒子,足见其强大。

它们还可以胜任收银员的工作,一手拿着扫码器,一手拿着商品,逐一完成扫码任务。

建筑工地中,一些危险的活儿,也能交由它们做。拿着电锯在指定位置打孔,不得不说真的强。

你还可以让机器人作为你的化身,陪你做游戏。

友好互动,机器人做的也是毫无违和感。

下面这是一个超有爱的画面,只见机器人将Hellokitty挂件递给女生后,还做出了比心的动作。

再来看看更多,跨越更远区域的演示。

研究人员做装网球的动作,机器人将现实中物体装进桶中。

下面这个比较有意思,MIT研究人员控制一台机器人,向与另一台机器人传递镜子。

以上皆是远程操控完成任务的案例,不过研究者开发的系统,也能够让机器人本体,自主去完成一些精准的任务。

比如,分类不同易拉罐饮料。

叠毛巾等等。

看过这么多精彩演示,你一定想了解其背后的技术原理,不如一起来看看。

技术介绍

正如开头所述,研究人员开发了一种通用框架Open-TeleVision,可以应用到不同机器人、机械手臂上,用VR设备完成高精度远程操控。

通过捕捉人类操作者的手部姿势,作者执行重定向操作,来控制多指机器人手或平行夹持器。

另外,研究者依靠逆运动学将操作者的手根位置,转换为机器人手臂末端执行器的位置。

整体的系统概述如下图2所示。

研究人员基于Vuer开发了一个网络服务器。VR设备将操作者的手、头和手腕的姿态以SE(3)的形式流式传输到服务器,服务器负责处理人类到机器人的动作重定向。

图3展示了机器人的头部、手臂和手如何跟随人类操作者的动作。

反过来,机器人以每只眼睛480x640的分辨率流式传输立体视频,整个循环以60Hz的频率进行。

硬件配置

具体来说,研究人员对两种机器人进行了实验,如下图4所示。

它们分别是人形机器人Unitree H1,以及配备夹持器的Fourier GR-1,来执行双手操作的任务。

对于主动感知,研究人员专为H1设计了一个具有两个旋转自由度(偏航和俯仰)的云台,安装在躯干顶部。

这个云台由3D打印部件组装而成,由DYNAMIXEL XL330-M288-T电机驱动。

对于GR-1,他们使用了厂商提供的3自由度颈部(偏航、滚动和俯仰)。

两种机器人都使用ZED Mini立体相机提供立体RGB视频流。

具体材料费用细节,下表列出了一些要点。

有了所具备的硬件,就要开启实验了。

实验结果

论文中,研究人员主要研究了两个问题:

- Open-TeleVision系统的关键设计选择如何影响模仿学习结果的表现?

- Open-TeleVision远程操作系统在收集数据方面的效率如何?

这里,研究人员选择ACT作为模仿学习的算法,并进行了两项关键修改。

一是,用更强大的视觉骨干网络DinoV2替换了ResNet。DinoV2是一个通过自监督学习预训练的视觉Transformer(ViT)。

二是,使用两个立体图像作为Transformer编码器的输入,而不是使4个独立排列的RGB相机的图像。

DinoV2骨干网络为每张图像生成16 × 22个token。状态token是从机器人当前的关节位置投影而来的。

对于H1机器人,动作维度是28(每个手臂7个,每只手6个,主动颈部2个)。对于GR-1机器人,动作维度是19(每个手臂7个,每个夹持器1个,主动颈部3个)。

具体实验中,作者选择了四个强调精确性、泛化能力,以及长期规划的任务,以展示Open-TeleVision的有效性,如下图5所示。

模仿学习

在易拉罐分类任务中,分别评估了拾取罐子的成功率和将其放置到指定位置的准确性。根据表1中H1的结果,Open-TeleVision在这两项评估指标上都具有最高的成功率。

在拾取子任务中,新模型始终优于其他两个基准模型。

在毛巾折叠任务中,研究者的模型和使用ResNet18的模型都达到了100%的折叠成功率。

泛化能力

此外,研究人员在随机化条件下评估了模型的泛化能力。

在使用H1进行的罐子分类任务中,评估了模型从一个4x4网格(每个网格单元为3厘米)中拾取罐子的成功率,如图6(左)所示。

详细结果在图6(右)中展示,这表明新策略能很好地泛化到数据集中覆盖的大面积区域,实现100%的成功率。

与此同时,TeleVision系统在相同批量大小下训练速度提高了2倍,并且在4090 GPU上可以在一个批中容纳4倍的数据。

在推理过程中,TeleVision系统也快了2倍,为逆运动学(IK)和重定向计算留出了足够的时间,以达到60Hz的部署控制频率。

针对用户研究,可以看出不同用户对机器人在任务分类中的偏好。

在图8中,展示了Open-TeleVision能够执行的更多远程操作任务,比如木板转孔、耳塞包装任务,液体试管。

如图9所示,Open-TeleVision系统还实现了远程操作。

总而言之,这项研究中提出了一个沉浸式远程操作系统Open-TeleVision,实现了精确的任务操作。

不过,作者也指出,系统仍缺乏其他形式的反馈,比如触觉。

而且在第一人称视觉被遮挡和需要大量触觉任务中,触觉反馈通常是主要的反馈形式。

一个能够重新标记专家数据的系统,对提高成功率可能非常有帮助,这也是当前系统所缺失的。

参考资料

https://x.com/xuxin_cheng/status/1808144850002628658

本文来自微信公众号“新智元”(ID:AI_era),作者:桃子,36氪经授权发布。

Fish AI Reader

Fish AI Reader

AI辅助创作,多种专业模板,深度分析,高质量内容生成。从观点提取到深度思考,FishAI为您提供全方位的创作支持。新版本引入自定义参数,让您的创作更加个性化和精准。

FishAI

FishAI

鱼阅,AI 时代的下一个智能信息助手,助你摆脱信息焦虑

联系邮箱 441953276@qq.com

相关标签

Open-TeleVision 远程操控 机器人 VR 沉浸式体验 模仿学习 数据收集 应用场景
相关文章