集智俱乐部 04月08日 21:42
Nature:DeepMind新一代Dreamer架构突破强化学习泛化瓶颈
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_guoji1.html

 

DeepMind的DreamerV3算法在人工智能领域取得了重大突破,它仅凭单一配置就在150多个不同任务中超越了专业算法。该算法通过构建环境模型并推演未来情景来优化行为,实现了在《我的世界》中从零开始收集钻石的壮举。DreamerV3的核心架构包括世界模型、评论者和行动者,通过创新的技术,如Symlog-Symexp变换和百分位回报归一化,确保了跨领域学习的稳定性。这项研究为通用强化学习的实际应用带来了新的可能性。

🧠 DreamerV3的核心是“世界模型-评论者-行动者”架构,其中世界模型将高维感官输入压缩为低维表征,并预测未来状态和奖励;评论者评估想象轨迹的价值;行动者则根据预测和评估选择最优行动。

🛠️ 为了提升跨领域稳定性,DreamerV3引入了多项关键技术,包括Symlog-Symexp变换、KL平衡与自由比特、百分位回报归一化和双热损失,这些技术共同作用使得算法在不同任务中保持超参数不变。

💎 DreamerV3在《我的世界》钻石收集任务中取得了突破性进展,首次在无任何先验知识的情况下,仅通过1亿环境步数成功挖到钻石,展现了无监督学习的巨大潜力。

📊 实验结果表明,DreamerV3在包括连续控制、离散动作和视觉输入等8个领域的150多项任务中,表现与专用算法相当甚至更优,证明了其强大的泛化能力。

原创 集智编辑部 2025-04-08 18:46 上海


摘要


开发一种能够广泛学习解决各类任务的通用算法,一直是人工智能领域的根本性挑战。尽管现有强化学习算法可轻松应用于与其开发目标相似的任务,但要将其配置应用于新领域,仍需耗费大量专业人力进行调试和实验。本文提出的第三代Dreamer算法,仅凭单一配置就在150多个不同任务中超越了专业算法。该算法通过构建环境模型,并借助对未来情景的推演来优化行为。基于归一化、平衡和转换的鲁棒性技术,确保了跨领域学习的稳定性。据我们所知,Dreamer是首个无需人类数据或课程设计,仅凭像素输入和开放世界中稀疏奖励,就能从零开始采集《我的世界》钻石的算法——这一成就曾被学术界视为检验人工智能能否实现长远像素级探索的重要挑战。我们的研究使得无需大量实验即可解决复杂控制问题,极大拓展了强化学习的应用范围。


关键词:DeepMind、DreamerV3算法、通用强化学习(General RL)、世界模型(World Model)、《我的世界》(Minecraft)、无监督学习(Unsupervised Learning)、多任务泛化(Multi-task Generalization)

集智编辑部丨作者


论文题目:Mastering diverse control tasks through world models

发表时间:2025年4月2日

论文地址:https://www.nature.com/articles/s41586-025-08744-2

期刊名称:Nature


在人工智能领域,开发一种无需调整超参数即可适应多样化任务的通用强化学习(RL)算法,一直是研究者追逐的“圣杯”。传统RL算法(如PPO)需针对不同任务进行繁琐调参,而专用算法(如MuZero)虽性能卓越却难以迁移。2025年4月,Google DeepMind在《Nature》发表第三代Dreamer算法(DreamerV3),以单一固定配置在8大领域、150余项任务中超越专用算法,更在无需人类数据的情况下,首次实现AI从零开始通关《我的世界》钻石收集任务。这一突破标志着通用RL向现实应用迈出关键一步。





DreamerV3的核心架构




Dreamer的核心创新在于其独特的“世界模型-评论者-行动者(World Model-Critic-Actor)”架构,由三个神经网络协同工作,通过"想象未来"替代传统RL的试错学习:

1. 世界模型:将高维感官输入(如图像)压缩为低维表征(Latent Representation),并预测潜在行动的未来状态和奖励,其关键组件包括编码器、序列模型和动态预测器。

2. 评论者(Critic):评估想象轨迹的长期价值,采用双热分布回归(Two-hot Regression)处理多模态奖励。

3. 行动者(Actor):根据世界模型的预测和评论者的评估,基于归一化回报(Return Normalization)和熵正则化(Entropy Regularization)选择最优行动以最大化收益。


与传统RL算法不同,Dreamer完全依赖世界模型生成的抽象轨迹进行决策,而非直接与环境交互。这种设计能够显著降低计算成本,同时提高算法的通用性。


图 1. Dreamer的训练过程





关键技术:提升跨领域稳定性




为实现跨领域鲁棒性,DreamerV3引入四项核心技术:

1. Symlog-Symexp变换:对输入和奖励进行双对称对数压缩,避免极端值干扰

2. KL平衡与自由比特:动态调整世界模型的目标函数权重,防止表征崩塌(Collapse)

3. 百分位回报归一化(Percentile Return Normalization):将回报缩放至[0,1]区间,平衡探索与利用

4. 双热损失(Two-hot Loss):将连续值预测转化为分类问题,可解决多模态分布难题


这些技术共同作用,使DreamerV3在从Atari游戏到机器人控制的跨越中保持超参数不变。


图 2. 世界模型的视频预测。





性能验证:碾压专用算法




研究团队从四个维度验证了Dreamer的性能:


1. 基准测试:全面覆盖多样化任务

在包括连续控制(如机器人运动)、离散动作(如游戏操作)、视觉输入(如像素级决策)等8个领域的150多项任务中,Dreamer的表现与专用算法相当甚至更优。例如,在Atari游戏和机器人控制任务中,Dreamer无需调整即可达到顶尖水平,证明了其泛化能力。


图 3. 基准测试分数。


2.《我的世界》钻石挑战:无人类数据的突破

《我的世界》的钻石收集任务需要智能体通过复杂的行为链(如资源采集、工具制作)达成目标,人类玩家通常需20分钟完成。此前,AI算法需依赖人类数据(如视频预训练VPT)或课程学习,而Dreamer首次在无任何先验知识的情况下,仅通过1亿环境步数(约10小时)成功挖到钻石,这一成果展示了无监督学习的巨大潜力。


图 4. 《我的世界》钻石挑战的表现。


3. 消融实验:鲁棒性技术的关键作用

通过消融研究,团队验证了Dreamer各组件的重要性:


4. 扩展性:模型规模与性能的正相关

在Crafter和DMLab任务中,团队测试了参数规模从1200万到4亿的6个模型。结果显示,更大的模型和更高的梯度更新次数直接提升了任务性能,同时降低了数据需求。这一发现为通过计算资源扩展提升AI能力提供了明确路径。


图 5. 消融和稳健的 Dreamer 规模缩放。





未来方向:从通用模型到通用智能




Dreamer的成功为AI研究开辟了多条新路径:


DeepMind的这项研究不仅解决了强化学习的脆性问题,更推动了AI从“专用工具”向“通用助手”的转变。随着计算资源的增长和数据利用效率的提升,Dreamer或将成为未来通用人工智能的基石之一。



「AI时代的学习:共探学习的复杂性」主题读书会


在技术浪潮的冲击下,智能时代对人才培养的需求正发生根本性转变——学习已不再局限于简单的知识传递与记忆,当机器能够替代程式化技能,人类的创造力、批判性思维与跨界协作能力将成为核心竞争力;当知识更新周期以月甚至天为单位迭代,教育的使命不再是填鸭式灌输,而是培养终身学习者的自适应能力。


在此背景下,集智俱乐部联合江南大学教授王志军,北京师范大学教授崔光佐,翼鸥教育创始人宋军波,TalkingBrain 联合创始人林思恩,清华大学讲师方可,北京师范大学博士后郭玉娟,共同发起「AI时代的学习:共探学习的复杂性」主题读书会。希望通过汇聚教育学、系统科学、脑科学、计算机科学、社会学等多领域交叉视角,突破单一学科的局限,对人类社会未来学习发展形成更加全面深入的认识。



详情请见:AI时代的学习:共探人类学习的复杂性



推荐阅读
1. DeepMind新工作:组合计算——关于大脑回放机制的新假说
2. DeepMind新研究:AI也懂合纵连横
3. DeepMind 新作:AI 系统实现以人为中心的分配机制设计
4. 涌现动力学如何用来分析复杂系统? | 新课上线
5. AI时代的学习:共探人类学习的复杂性

6. 探索者计划 | 集智俱乐部2025内容团队招募(全职&兼职)



点击“阅读原文”,报名读书会

阅读原文

跳转微信打开

Fish AI Reader

Fish AI Reader

AI辅助创作,多种专业模板,深度分析,高质量内容生成。从观点提取到深度思考,FishAI为您提供全方位的创作支持。新版本引入自定义参数,让您的创作更加个性化和精准。

FishAI

FishAI

鱼阅,AI 时代的下一个智能信息助手,助你摆脱信息焦虑

联系邮箱 441953276@qq.com

相关标签

DeepMind DreamerV3算法 通用强化学习 世界模型
相关文章