36kr-科技 2024年07月22日
“具身智能小镇”来了,机器人逛超市买菜满街跑,AI充当NPC,来自上海AI Lab
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_guoji1.html

 

上海AI实验室发布首个模拟交互式3D世界GRUtopia,模拟真实世界环境,包含超市、办公室、家庭等89个场景类别,并提供NPC系统与机器人交互。该项目旨在降低具身智能现实世界数据收集难度和成本,通过Sim2Real路线,帮助机器人完成各种行为模拟。

🤖 **模拟真实世界环境:** GRUtopia包含100k个交互式、带精细注释的场景,自由组合成逼真城市环境,覆盖室内室外、餐厅、超市、办公室、家庭等89个不同场景类别。该项目扩展了机器人可以活动和操作的环境范围,目标是将通用机器人的能力扩展到各种服务场景,比如超市、医院等。

💬 **NPC系统与机器人交互:** GRUtopia配备了由大模型驱动的NPC系统,能够推断物体之间的空间关系,参与动态对话和任务分配,为机器人提供海量场景任务。NPC系统在描述和定位对象上的准确率都不错,通过交叉验证,证明了其可靠性。

📈 **评估具身智能表现:** GRUtopia提供了一个评估具身智能表现的benchmark,包含目标定位导航、社交定位导航和定位操作三种基准,难度逐渐递增。实验结果表明,使用大型模型作为后端代理的表现优于随机策略,验证了基准设计的合理性。

🚀 **开源项目,助力具身智能发展:** 该项目计划开源,现阶段在GitHub上已提供demo安装指南。GRUtopia为具身智能研究提供了新的平台,为机器人学习和发展提供了宝贵的数据和工具。

💡 **未来展望:** GRUtopia的发布标志着具身智能研究迈出了重要一步,未来将继续扩展场景类别和功能,为机器人研究提供更强大的工具,推动具身智能的快速发展。

超逼真的机器人小镇来了!

在这里,机器人可以像人一样在超市里购物:

买菜回家做饭:

在办公室里接咖啡(旁边还有人类同事):

不只有人形机器人,机器狗、臂式机器人也在这个“城市”里穿梭自如。

这就是由上海AI实验室最新提出的首个模拟交互式3D世界:GRUtopia(中文名:桃源)。

在这里,由多达100k个交互式、带精细注释的场景自由组合成逼真城市环境。

包含室内室外,餐厅、超市、办公室、家庭等89个不同场景类别。

由大模型驱动的NPC,可以在这个世界里和机器人对话交互。

这样一来,各种机器人能在虚拟小镇里完成各种行为模拟,也就是最近流行的Sim2Real路线,能大幅降低具身智能现实世界数据收集难度和成本。

该项目计划开源,现阶段在GitHub上已提供demo安装指南。

安装成功后,就能在demo里控制一个人形机器人在房间内活动,并支持调整不同视角。

机器人的虚拟桃源

其核心工作共有三项:

其中,GRScenes是一个包含大规模场景数据的数据集。

它极大程度上扩展了机器人可以活动和操作的环境范围,此前的工作更聚焦于家庭场景。

该研究表示,他们的目标是将通用机器人的能力扩展到各种服务场景,比如超市、医院等。同时覆盖室内室外环境,包括游乐园、博物馆、展览馆等。

对于各个场景,他们都进行了精细高质量建模,100 个场景包含 96 个类别的 2956 个交互式物体和 22001 个非交互式物体。

GRResidents是一个NPC系统。

它由大模型驱动,同时对模拟环境中的场景信息非常了解。因此NPC可以推断物体之间的空间关系,参与动态对话和任务分配。

借助于这个系统,GRUtopia可以生成海量场景任务供机器人完成。

通过与人类进行交叉验证,NPC系统在描述和定位对象上的准确率都不错。

在描述实验中,让NPC系统随机选择一个物体进行描述,人类能找到对应物体就算成功。

在定位实验中则反过来,如果NPC系统能根据人类给出的描述找到对应物体就算成功。

调用不同大模型的成功率不尽相同,综合来看GPT-4o的表现最好。

GRBench是一个评估具身智能表现的benchmark。

它包含3个基准,涉及目标定位导航(Object Loco-Navigation)、社交定位导航(Social Loco-Navigation)和定位操作(Loco-Manipulation),这三种评估的难度逐渐递增。

为了分析NPC和控制API的性能,研究提出了基于LLM和VLM的基线,以验证基准设计的合理性。

实验结果表明,与随机策略相比,在所有基准测试中,使用大型模型作为后端代理的表现都更好。

而且Qwen-VL在对话上的表现超过了GPT-4o

最后整体对比来看,GRUtopia其他平台在各个维度上都更强大。

该研究工作由上海人工智能实验室OpenRobot Lab领衔。

该实验室聚焦研究具身通用人工智能,致力于构建软硬虚实一体化的通用机器人算法体系。

今年5月,该团队还发布了具身多模态大模型Grounded 3D-LLM,能够自动化生成物体到局部区域的场景描述与具身对话数据,有效缓解了目前三维场景理解的局限性。

论文地址

https://arxiv.org/abs/2407.10943

GitHub地址

https://github.com/openrobotlab/grutopia?tab=readme-ov-file

本文来自微信公众号“量子位”,作者:明敏,36氪经授权发布。

Fish AI Reader

Fish AI Reader

AI辅助创作,多种专业模板,深度分析,高质量内容生成。从观点提取到深度思考,FishAI为您提供全方位的创作支持。新版本引入自定义参数,让您的创作更加个性化和精准。

FishAI

FishAI

鱼阅,AI 时代的下一个智能信息助手,助你摆脱信息焦虑

联系邮箱 441953276@qq.com

相关标签

GRUtopia 具身智能 机器人 模拟 AI
相关文章