不要小瞧机器人的羁绊!Figure AI发布能“双机协作”的端侧大模型。
据财联社,在2月初终结与OpenAI的AI模型合作后,美国机器人创业公司Figure AI如期在周四公开了背后的原因:公司已经有更厉害的通用具身智能模型Helix。
Figure AI表示,Helix是首款能对整个人形机器人上半身(包括头部、躯干、手腕和手指)进行高频率、连续控制的视觉-语言-动作(VLA)模型。通过直接将视觉语言模型中捕获的丰富语义知识,直接转化为机器人动作,克服了人形机器人领域的多个长期挑战——至少不需要为机器人的每一个动作进行大量训练了。
为了解决视觉语言模型“通用、但不快速”,和机器人视觉运动策略“快速、但不通用”的矛盾,Figure通过建立一套互补的系统进行权衡。两套系统通过端到端训练以进行通信。
Figure介绍称,训练Helix仅仅用了500个小时的高质量监督数据,总量连之前收集的VLA数据集5%都不到,并且不需要多机器人数据或多阶段训练。
作为这项科技突破的结果,搭载Helix的机器人现在可以根据自然语言指令,识别并拾取几乎所有的小型家居物品,包括机器人从未见过的成千上万物品。在公司给出的案例中,机器人在听到“拿起那个仙人掌”、“拿起沙漠里的东西”时,都能选择最接近玩具的手,成功从一堆物品中拎出仙人掌玩具。
Figure介绍称,Helix是首款可以在人形机器人上协同运行的AI模型,使得两台机器人可以协作解决一个共享的、长期的操作任务。
在演示的最后,Figure也在摆放水果的操作中展现出更高水平的协作:左边的机器人把果盆拉过来,右边的机器人顺手把水果放进去,然后左边的机器人再把果盆放回原位。