智源社区 2024年11月01日
波士顿动力电驱机器人进厂打工,全程自主无遥控,50万人在线围观
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_guoji1.html

 

波士顿动力人形机器人Atlas无远程遥控,可完全自主工作。它能全自动分装物件,进行多种动作,还能自主移动发动机盖等。Atlas的身体部分可360°旋转,其使用机器学习视觉模型等完成任务,但也面临一些质疑。此外,英伟达发布HOVER用于人形机器人控制。

🌐Atlas可完全自主打工,只需告知前后搬运位置坐标,它就能全自动分装物件,面对刁难也能成功完成任务,还能瞬间纠错。

💪Atlas在近3分钟demo中进行了一系列秀肌肉操作,头部、上半身、髋关节都能360°旋转,可随时转向、倒退行走。

🧠Atlas使用机器学习视觉模型来检测和定位环境固定装置和单个箱子,并会使用专门的抓取策略,能结合视觉、力和感知来检测环境变化和动作故障并做出反应。

🤔有人对Atlas不采用360°全景摄像头表示疑惑,推测是为控制成本;也有人对Atlas采用的技术表达担忧。

🚀英伟达发布HOVER,这是一个1.5M参数的神经网络控制器,用于人形机器人的全身运动和操作协调,可将运动指令转换为高频的低级电机信号。

登上油管热榜,吸引50万网友围观,波士顿动力人形机器人又放大招了——

无远程遥控(Fully Autonomous),Atlas可完全自主打工了。

只需告诉Atlas前后搬运的位置坐标,它就能全自动分装物件,动作be like:

而在Atlas的第一视角下,它看到的是酱紫的:

面对“刁难”(物件在底层位置),Atlas直接一个帅气下蹲,再次成功完成任务。

更有意思的是,当发现自己弄错位置后,Atlas突然以一个鬼畜完成了瞬间纠错。(笑死,怪突然的)

总之,在近3分钟demo中,Atlas进行了一系列秀肌肉操作:头部、上半身、髋关节都能360°旋转,可随时转向、倒退行走……

有网友惊呼,其他机器人还在学走路,Atlas已经开始朝九晚五,甚至007式打工了!

同行(通用仓库机器人nimble ai创始人)大赞:Atlas已经遥遥领先了。

只有机器人专家才知道Atlas有多棒

网友:完全自主?你引起了我的注意

自从今年4月宣布改液压为电驱后,这是波士顿动力人形机器人为数不多的露面。

上一次还是8月底,他们展示了Atlas能够一口气做俯卧撑、深蹲等热身运动,当时就震惊了上百万网友。

而在最新demo中,Atlas又瞄准了自动化控制,现在它能在集装箱和移动小车间自主移动发动机盖了。

据波士顿动力介绍,Atlas使用机器学习视觉模型来检测和定位环境固定装置和单个箱子,并且会使用专门的抓取策略,通过不断估计被操纵物体的状态来完成任务。

机器人能够结合视觉、力和感知来检测环境变化(如移动固定装置)和动作故障(如未能插入盖子、绊倒、环境碰撞)并做出反应。

看完一系列最新表现,果不其然又惊倒了一片网友:

完全自主?现在你引起了我的注意


网友们也是纷纷cue起了特斯拉人形机器人Optimus~

前一阵,Optimus在特斯拉的发布会上同样大秀肌肉(开场热舞、与人交谈猜丁壳、倒酒等一个不落),不过最后被多方证明存在现场远程操控。

后来特斯拉也发布了一个展示Optimus自主导航的demo:

对于这两家人形机器人领域同样炙手可热的竞争对手,网友们也开始各自站台,并最终达成了一个“共识”。

二者的差距在于量产。波士顿动力单兵能力强,而特斯拉在商业化量产方面更具优势。

背后的逻辑也很简单,人形机器人最终还是要走向消费市场。

不过不管怎样,Atlas展现的细节已十分惊艳,比如可以360°旋转的身体、头部。


虽然也有人吐槽这很诡异,不过大多数人表示看好:

人形机器人能够被设计而不是进化,意味着一旦我们弄清楚工程原理,各种变形金刚和驱魔人式的能力都可能发生。

另外,还有人疑惑为什么Atlas不搞个360°全景摄像头,还需要转动头部呢?

对此,有网友推测最大原因还是控成本

更高分辨率的深度相机价格昂贵(带宽和计算),因此将超密集传感器限制在工作空间的位置是很有意义的。

实在不行,也可以“低质量的360°全景视觉+面向单一方向的高质量相机/激光雷达”(网友支招有)

One More Thing

在reddit网友一片热议中,部分网友发出了灵魂拷问:

机器人完成这种任务(分装物件)好像没啥大意义?能不能更贴近现实生活。

对此,也有人对Atlas采用的技术表达担忧:基于点和规划器/优化器在泛化能力上可能不如神经网络等。

且就在刚刚,英伟达新发布了HOVER,一个1.5M参数的神经网络控制器,用于人形机器人的全身运动和操作协调。

据负责英伟达具身智能实验室(GEAR)的Jim Fan介绍:

人类在行走、保持平衡以及操纵四肢到达期望位置时,需要大量的潜意识处理。我们在HOVER中捕捉了这种“潜意识”,这是一个单一模型,学习如何协调人形机器人的电机以支持运动和操纵。

我们在NVIDIA Isaac中训练了HOVER,这是一个GPU驱动的仿真套件,能够实现比现实时间快10000倍的物理模拟速度

为了直观理解这个数字,机器人在虚拟“道场”中经历了一年的密集训练,但在一块GPU卡上仅花费了大约50分钟的真实时间。然后,神经网络无需微调即可零样本迁移到现实世界。

简单说,HOVER可以被“提示”执行各种指令,英伟达称之为“控制模式”。比如:

    头部和手部姿势:可以通过XR设备如苹果的Vision Pro捕捉

    全身姿势:通过动作捕捉或RGB相机

    全身关节角度:外骨骼

    根速度指令:操纵杆

概括而言,HOVER提供了一个统一接口,允许使用任何方便的输入设备来控制机器人。

它简化了收集全身遥控操作数据的方式,以便于训练;且作为一个上游的视觉-语言-动作模型,只要提供运动指令,HOVER就能将其转换为高频的低级电机信号。

对此,你怎么看?

参考链接:
[1]
https://www.youtube.com/watch?v=F_7IPm7f1vI
[2]https://www.reddit.com/r/singularity/comments/1gfmytj/new_creepy_atlas_video_dropped/
[3]https://twitter.com/simonkalouche/status/1851632608171679817

评选征集中

「2024人工智能年度评选」

量子位2024人工智能年度评选已开启报名通道,评选从企业人物产品三大维度设立了5类奖项。

欢迎扫码报名评选!评选结果将于12月MEET2025智能未来大会公布,期待与数百万从业者共同见证荣誉时刻。

点这里?关注我,记得标星哦~

一键三连「点赞」、「分享」和「在看」

科技前沿进展日日相见 ~ 

Fish AI Reader

Fish AI Reader

AI辅助创作,多种专业模板,深度分析,高质量内容生成。从观点提取到深度思考,FishAI为您提供全方位的创作支持。新版本引入自定义参数,让您的创作更加个性化和精准。

FishAI

FishAI

鱼阅,AI 时代的下一个智能信息助手,助你摆脱信息焦虑

联系邮箱 441953276@qq.com

相关标签

波士顿动力Atlas 人形机器人 自主工作 HOVER 机器学习
相关文章