IT之家 2024年12月13日
Meta 发布 Motivo AI 模型,打造更逼真元宇宙体验
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_guoji1.html

 

Meta公司推出了Meta Motivo人工智能模型,旨在控制类人数字智能体的动作,提升元宇宙体验。该模型基于行为的基础模型,在Mujoco模拟器中训练,利用AMASS动作捕捉数据集和在线交互样本,通过无监督强化学习算法进行预训练。Meta Motivo使用FB-CPR算法,学习表示将状态、动作和奖励嵌入同一潜在空间,实现全身控制任务,如运动跟踪、姿势到达和奖励优化,无需额外训练或规划。此外,Meta还发布了LCM和Video Seal等AI工具,展现其对AI、AR和元宇宙技术的持续投入。

🤖 Meta Motivo 是一个基于行为的基础模型,通过新型无监督强化学习算法进行预训练,能够控制复杂虚拟人形智能体的运动,提升元宇宙体验。

🤸‍♀️ 该模型在Mujoco模拟器中训练,使用了AMASS动作捕捉数据集的子集和3000万个在线交互样本,通过FB-CPR算法学习,无需任何特定任务的显式训练,就能完成运动轨迹跟踪、姿势到达和奖励优化等任务。

💡 Meta Motivo 的关键创新在于学习表示,将状态、动作和奖励嵌入到相同的潜在空间中,从而能够解决各种全身控制任务,无需任何额外的训练或规划,展现出更接近人类的行为。

🎬 Meta公司还发布了大型概念模型LCM和视频水印工具Video Seal等AI工具,并重申对AI、AR和元宇宙技术的持续投入。

IT之家 12 月 13 日消息,Meta 公司周四宣布推出名为 Meta Motivo 的人工智能模型,该模型旨在控制类人数字智能体的动作,从而提升元宇宙体验。

Meta 还发布了大型概念模型 LCM 和视频水印工具 Video Seal 等 AI 工具,并重申其对 AI、AR 和元宇宙技术持续投入的决心。

IT之家注:Meta Motivo 是一个基于行为的基础模型,在 Mujoco 模拟器中进行训练,使用了 AMASS 动作捕捉数据集的子集和 3000 万个在线交互样本,通过一种新型的无监督强化学习算法进行预训练,以控制复杂虚拟人形智能体的运动。

Meta Motivo 使用一种新颖的 FB-CPR 算法进行训练,该算法利用未标记的动作数据集,保留零样本推理能力的同时,将无监督强化学习引导至学习类似人类的行为。

尽管模型没有经过任何特定任务的显式训练,但在预训练过程中,动作轨迹跟踪(例如侧手翻)、姿势到达(例如阿拉贝斯克舞姿)和奖励优化(例如跑步)等任务的性能都得到了提升,展现出更接近人类的行为。

该算法的关键技术创新在于学习表示(representation),该表示可以将状态、动作和奖励嵌入到相同的潜在空间中。因此,Meta Motivo 能够解决各种全身控制任务,包括运动跟踪、目标姿态到达和奖励优化,而无需任何额外的训练或规划。

参考

Fish AI Reader

Fish AI Reader

AI辅助创作,多种专业模板,深度分析,高质量内容生成。从观点提取到深度思考,FishAI为您提供全方位的创作支持。新版本引入自定义参数,让您的创作更加个性化和精准。

FishAI

FishAI

鱼阅,AI 时代的下一个智能信息助手,助你摆脱信息焦虑

联系邮箱 441953276@qq.com

相关标签

Meta Motivo 人工智能 元宇宙 强化学习 AI模型
相关文章