报告主题:面向复杂场景,数字人交互理解与动作生成
报告日期:03月06日(本周四)10:30-11:30
报告要点:
人-物交互(HOI)是计算机视觉和机器人领域的核心挑战之一,旨在使机器能够理解和执行与物体的自然交互。随着深度学习技术的进步,HOI研究在感知、规划与执行三个关键环节取得了显著进展。本次讲座将深入探讨如何从真实数据中学习人-物交互,并展示一系列创新方法。首先,我们提出了一种基于单目视觉的铰接物体重建方法,通过交互先验模型精确捕捉人体与物体之间的细粒度交互关系。其次,我们介绍了一种基于自回归扩散模型的实时动作合成技术,能够根据关键点和场景信息生成灵活的人-场景交互动作,并具备卓越的零样本泛化能力。最后,我们展示了一个基于大语言模型的HOI动作生成框架,能够从文本指令中自主合成多阶段、场景感知的数字人交互动作。这些突破为具身机器人在辅助医疗、虚拟现实等领域的应用奠定了坚实基础,未来将推动机器人在复杂场景中实现更自然、高效的交互能力。
报告嘉宾:
蒋楠,北京大学人工智能研究院三年级博士生,硕士毕业于帝国理工学院,研究领域为计算机视觉,研究方向为人-物交互与动作生成。在ICCV、CVPR和SIGGRAPH等国际顶级会议上一作发表论文。担任CVPR、ICCV和IJCV等会议和期刊审稿人。讲者个人主页: https://jnnan.github.io/
扫码报名
更多热门报告
内容中包含的图片若涉及版权问题,请及时与我们联系删除