index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_guoji1.html
![]()
本次报告将介绍上海交通大学MVIG实验室构建的OakInk系列数据集,旨在解决具身智能在学习长程、复杂操作任务时面临的挑战。OakInk数据集以物体可供性知识(“Oak”)和手物交互知识(“Ink”)为核心,关注基于可供性的物体抓取交互以及这些交互在不同物体实例间的迁移。OakInk2进一步扩展了数据与方法论,以物体功能为核心,在操作任务上构建了功能可供性、基本任务与复杂任务三个抽象层次,涵盖了实际完成多个物体可供性的复杂操作任务演示。该数据集旨在赋予AI完成长程复杂任务的操作知识基础,并为机器人灵巧操作提供数据支持。
🌳OakInk数据集的核心在于其对物体可供性(Oak)和手物交互(Ink)知识的建模,这为AI理解和执行复杂操作任务奠定了基础。数据集关注物体提供的功能以及人类如何与这些功能进行交互。
🔄OakInk数据集强调手物交互在不同物体实例之间的迁移能力。这意味着AI可以通过学习在一种物体上的交互方式,将其应用到具有相似功能的其他物体上,从而提高泛化能力。
🧩OakInk2数据集在操作任务上构建了三个抽象层次:功能可供性、基本任务与复杂任务。这种分层结构使得AI能够逐步学习和理解复杂的操作任务,从简单的物体功能到复杂的任务完成。
🤖OakInk系列数据集提供了大规模人类专家演示轨迹,为下游的机器人灵巧操作提供了丰富的数据支持。这些数据可以用于训练机器人模仿人类的操作行为,从而实现更高效、更灵活的操作。

报告主题:OakInk与OakInk2数据集:解锁操作任务中的手物交互任务的“宝藏”框架
报告日期:02月21日(本周五)10:30-11:30
报告要点:
学习长程、复杂操作任务一直是具身智能面临的挑战。追溯以往的研究,数据驱动的操作行为学习依赖于物体操作知识和人类专家演示数据。本次分享将介绍我们构造的OakInk系列数据集,其中“Oak”对应物体可供性知识,即物体所能提供的功能;而“Ink”对应手物交互知识,即在指定物体功能之上人的交互和操作形式。OakInk数据集关注基于可供性物体抓取交互,以及这些手物交互在不同物体实例之间的迁移。OakInk2扩展了OakInk的数据与方法论,以物体功能为核心,在操作任务上构建了三个抽象层次:功能可供性、基本任务与复杂任务,涵盖了实际完成多个物体可供性的复杂操作任务演示。OakInk系列数据集以物体功能为中心的建模方式旨在赋予AI完成长程复杂任务的操作知识基础;所提供的大规模人类专家演示轨迹也为下游的机器人灵巧操作提供数据支持。
报告嘉宾:
詹欣宇,上海交通大学MVIG实验室在读博士生,目前在杨理欣老师组内开展学习与工作。主要研究领域为人类手物交互理解以及其在机器人操作任务完成之中的应用。参与了OakInk系列数据集的构建工作,并作为核心成员完成了OakInk2数据集的建模与构造。相关成果发表于ICCV、CVPR等会议。

扫码报名
更多热门报告


内容中包含的图片若涉及版权问题,请及时与我们联系删除