Figure公司创始人兼CEO布雷特·阿德科克发布了名为Helix的全新机器学习模型,旨在增强人形机器人在家庭环境中的应用。该模型为通用型视觉-语言-行动(VLA)模型,能通过视觉数据和语言指令实时控制机器人。Helix模型具备强大的物体通用性,能够识别并拾取数千种训练中未见过的家居物品,且仅需用户使用自然语言进行指令。该模型仅用约500小时的高质量监督数据进行训练,无需多机器人收集或多个训练阶段,代表Figure在扩展人形机器人行为方面取得了显著进展。
🤖 Helix是一个通用型的视觉-语言-行动(VLA)模型,它能够通过视觉数据和语言指令来实时控制机器人,提升人形机器人在家庭环境中的应用能力。
👓 Helix模型具备强大的物体通用性,能够识别并拾取成千上万种在训练中未见过的家居物品,用户只需用自然语言进行指令,操作便捷性大大提升。
⏱️ Helix模型仅使用了约500小时的高质量监督数据进行训练,无需多机器人收集或多个训练阶段,这表明其在扩展人形机器人行为方面具有高效性和变革性。
Figure 创始人兼 CEO 布雷特・阿德科克(Brett Adcock)发布了一种新的机器学习模型 Helix,旨在提升人形机器人在家庭环境中的应用能力。这一消息正值 Figure 宣布与 OpenAI 的合作结束仅两周,显示出他们在机器人技术领域的坚定决心。

Helix 是一个 “通用型” 的视觉 – 语言 – 行动(VLA)模型,能够通过视觉数据和语言指令来实时控制机器人。它的工作原理与谷歌 DeepMind 的 RT-2相似,后者通过视频与大型语言模型的结合训练机器人。Helix 则更进一步,它展示了强大的物体通用性,能够识别并拾取成千上万种在训练中未见过的家居物品,这一切只需用户用自然语言进行指令。
Helix 以极少的资源实现了强大的对象泛化。总共使用约 500 小时的高质量监督数据来训练 Helix,这仅仅是之前收集的 VLA 数据集的一小部分(<5%),并且不依赖于多机器人收集或多个训练阶段。这代表 Figure 在扩展人形机器人行为方面迈出了变革性的一步