2025-06-26 12:02 浙江
导读
💡 **核心理念:** BridgeVLA通过对齐VLM与VLA的输入输出,在2D空间中“桥接”两者的差距,避免了传统3D VLA的复杂3D信息处理,仅需输入图片和文字指令。
🖼️ **预训练方法:** 采用新颖的预训练方法,赋予VLM预测2D Heatmap的能力。模型输入图片-目标文本对,输出对应图像的Token,重排后还原成Heatmap,通过交叉熵损失训练,使模型具备目标物体像素位置的预测能力。
🤖 **微调流程:** 在微调阶段,BridgeVLA将点云数据从三个方向正交投影成2D图像,输入模型。模型输出Heatmap,反投影后估计3D空间内的结构化网格点分数,选择得分最高的点作为机械臂的平移目标,并结合全局和局部特征预测旋转、夹持器状态等。
🏆 **实验表现:** 在RLBench、COLOSSEUM和GemBench等多个基准测试中,BridgeVLA均显著优于现有模型,尤其在需要高精度对齐和复杂泛化场景中表现突出。在真实机器人实验中,BridgeVLA在多种设置下也超越了最先进的基线方法。
2025-06-26 12:02 浙江
导读
BridgeVLA 的核心理念是将预训练和微调的输入输出对齐到统一的 2D 空间,从而「bridge」VLM 和 VLA 之间的 gap。从这个理念出发,作者认为不应该使用传统 3D VLA 的 3D 位置编码或 3D 信息注入,而是将 VLA 输入与 VLM 对齐,即仅输入图片和文字指令。
同时,作者将模型的输出方式从 Next token prediction 变更为 Heatmap prediction,通过这种方式,将输出从无空间结构的 token 变成有空间结构的 2D Heatmap,既能充分利用 3D 空间结构先验,又能将模型的输入输出进一步在 2D 空间中对齐。
在使用机器人数据进行微调之前,需要先通过预训练以赋予 VLM 目标检测的能力。为此,作者提出了一种新颖的可扩展预训练方法:给模型输入图片-目标文本对,并提取模型的输出中对应图像的 token,再将这部分图像 token 进行重新排列作为图像的隐藏状态,最后,通过可学习的凸上采样方法将其还原成与输入图片相同大小的 Heatmap。通过交叉熵损失监督训练模型,使其具有 Heatmap 预测的能力。通过这个 Heapmap 即可获取被操作的目标物体的像素位置。
与 RVT、RVT-2 等典型的 3D 操作策略类似,BridgeVLA 通过预测关键点来得到下一时刻的动作。具体来说,BridgeVLA 采用场景的点云和指令文本作为原始输入。但为了将微调过程的输入与预训练的输入进行对齐,作者将点云从正面、上面、右侧这三个方向进行正交投影,产生 3 张 2D 图像输入给模型。模型采用与预训练相同的方式输出 Heatmap 后,通过将 3 个 Heatmap 进行反投影,进而估计 3D 空间内所有结构化网格点的分数,并选用得分最高的点作为机械臂末端执行器的平移目标。对于旋转、夹持器状态以及碰撞检测,BridgeVLA 将提取到的全局特征和局部特征进行拼接,然后输入给 MLP 进行预测。
此外,BridgeVLA 沿用了由粗到细(Coarse-to-fine)的多级预测方式,通过对首次 Heatmap 预测的目标位置附近的点云进行放大和裁剪,并在裁剪后的点云上进行第二次前向传播,从而获得更加精细的位置预测。
RLBench:实验在 18 个复杂的 RLBench 任务上进行,包括非抓取操作任务、抓取放置任务和高精度插入任务等。BridgeVLA 在此基准测试中显著优于所有现有基线方法,将平均成功率从 81.4% 提高到 88.2%,并在 18 个任务中的 10 个中取得了最佳表现,尤其在需要高精度对齐的任务(如「Insert Peg」和「Sort Shape」)中表现突出。
COLOSSEUM:作为 RLBench 的扩展,COLOSSEUM 基准专注于评估模型在 12 种扰动(包括物体纹理、颜色、大小、背景、光照、干扰物和相机姿态变化等)下的泛化能力和鲁棒性。BridgeVLA 在 COLOSSEUM 基准测试中展示了强大的鲁棒性,平均成功率从 56.7% 提升到 64.0%,并在 14 种评估扰动中的 13 种中表现最佳。
GemBench:该测试基准分为四个挑战性递增的层次(L1-L4),涉及新颖的放置、刚性物体、关节物体以及需要组合多个动作才能完成的长周期任务。BridgeVLA 在这四个评估设置中取得了最高的平均成功率,尤其在 L2 和 L3 设置中取得了最先进的成果,证明了其强大的泛化能力。然而,与大多数基线方法类似,BridgeVLA 在 L4(长周期任务)设置中的表现仍然有限。
在真实世界评测中,作者设计了 13 个基本任务,并设计了 6 种不同的泛化性能测试(包括干扰物体、光照、背景、高度、组合和类别)以全面评估模型性能。如图所示,BridgeVLA 在七种设置中的六种中均优于最先进的基线方法 RVT-2。
在四种视觉干扰设置中,BridgeVLA 表现出十分显著的鲁棒性,尤其在干扰物和背景变换的设置中,其仍然能够保持超高成功率。此外,作者还发现 2D 热图预训练对于模型理解语言语义和泛化到新的对象-技能组合至关重要。同时,即使在经过机器人动作数据微调后,模型仍能很好地对预训练数据进行预测,证明预训练知识被成功地保留了下来。
VLA 新范式:从「Next Token Prediction」到「Heatmap Prediction」,BridgeVLA 为 3D VLA 的设计提供了数据效率更高、操作效果更好的技术范式;
扩展预训练任务:未来的研究可以尝试在更多样化的任务上进行预训练,例如语义分割和关键点检测,以增强模型的通用视觉理解能力;
提升动作解码能力:研究团队未来将考虑整合更具表达能力的动作解码方法(例如扩散模型),以持续提升策略性能;
改善长周期任务表现:针对复杂长周期任务的挑战,未来计划探索利用大型语言模型(LLM)进行任务分解,以进一步提升模型在此类任务中的表现。
AI辅助创作,多种专业模板,深度分析,高质量内容生成。从观点提取到深度思考,FishAI为您提供全方位的创作支持。新版本引入自定义参数,让您的创作更加个性化和精准。
鱼阅,AI 时代的下一个智能信息助手,助你摆脱信息焦虑