集智俱乐部 07月02日 07:04
走向通用人工智能之路,世界模型为何不可或缺?
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_guoji1.html

 

一篇关于通用智能体是否需要构建“世界模型”的论文,通过严谨的数学证明,揭示了任何能够在多步目标导向任务上保持较低后悔的智能体,都必然学会了环境的预测模型。研究结果表明,学习精确的世界模型对于提高智能体的性能和目标复杂性至关重要,这为开发安全、通用的智能体,以及从智能体中获取世界模型提供了新的算法。

🧠研究的核心在于探讨了通用智能体是否需要构建“世界模型”的问题,通过数学证明了在多步目标导向任务中,智能体若要保持低后悔,就必须学习环境的预测模型。

🔄研究将环境形式化为受控马尔可夫过程,智能体被定义为“目标条件策略”,策略依赖历史和复合目标。为了对比不同目标复杂度,引入线性时序逻辑,将单步目标和子目标序列等纳入统一框架。

💡研究证明了随着目标深度增加或后悔界限趋近于零,智能体学习到的近似误差会收敛于零。这意味着,若智能体在多步目标上保持较低后悔水平,就必然学到了环境的预测模型,二者在信息论上等价。

⚙️论文还设计了一个无监督的世界模型回收算法,该算法仅与策略和目标生成器交互,不依赖智能体内部网络激活或对环境的额外访问,通过统计策略选择概率反演出转移函数的估计值。

📈实验结果表明,即使智能体在某些目标上表现不佳,只要对深度目标保持较低平均后悔水平,算法依然能以特定速率回收高精度环境模型,验证了定理的鲁棒性。

原创 彭晨 2025-07-01 19:44 上海

摘要


世界模型是灵活的目标导向行为的必要因素,还是无模型学习就足够了?我们对这个问题给出了正式的答案,表明任何能够泛化到多步目标导向任务的智能体都必须已经学习到了其环境的预测模型。我们证明了可以从智能体的策略中提取出这个模型,并且提高智能体的性能或其能够达成的目标的复杂性需要学习越来越精确的世界模型。这带来了诸多影响:从开发安全且通用的智能体,到界定复杂环境中智能体的能力,以及提供从智能体中获取世界模型的新算法。

关键词:世界模型 (world model)、模型无关学习 (model-free learning)、目标条件策略 (goal-conditioned policy)、后悔界 (regret bound)、环境预测 (predictive model)、线性时序逻辑 (Linear Temporal Logic)

彭晨丨作者

论文题目:General agents need world models

发表时间:2025年6月2日

论文地址:https://arxiv.org/abs/2506.01622

论文会议:ICML 2025


背景


近年来,随着少样本(few-shot)与零样本(zero-shot)学习在大语言模型中的突破,人们对通用智能体(general agents)是否必须构建“世界模型”展开了激烈争论。一方面,纯粹的无模型学习(model-free learning)已在诸多任务中展现出惊人泛化能力;另一方面,心理学与认知科学则强调人类在进行多步规划时依赖丰富的环境表征(world models)。本文由Richens等人正式回答了这一问题:任何能够在多步目标导向任务上保持较低后悔(regret)的智能体,都必然学会了环境的预测模型。


人类智能与世界模型


人类可以凭借心智表征预演未来、设定抽象目标,进而在从未见过的场景中灵活行动。这些“世界模型(world models)”早在1983年就被提出[1],用以解释我们如何从感官输入中跳脱出来,进行主动规划。然而,在机器学习领域,Brooks等人曾宣称“世界即模型”,纯粹依赖感知-动作循环的模型无关智能体同样能够涌现出智能行为。本文在此争论框架下出发,给出了一个严谨的数学答案。


图 1. 本文的结果补充了之前关于规划和逆向RL的见解。规划使用世界模型和目标来确定策略,逆向RL和逆规划使用智能体的策略和世界模型来确定其目标,而本文使用智能体的策略和目标来确定世界模型。


问题描述:受控马尔可夫过程与目标条件策略


研究者将环境形式化为受控马尔可夫过程(controlled Markov process),只包含状态空间 S、动作空间 A 以及转移函数Pss'(a),未指定奖励或折扣。智能体被定义为一类“目标条件策略”(goal-conditioned policy),即策略π(at|ht;Ψ)同时依赖历史ht和用户指定的复合目标Ψ。为了对比不同目标复杂度,对“复合目标”引入线性时序逻辑(Linear Temporal Logic, LTL),将单步目标(Now/Next/Eventually)和子目标序列(sequential goals)、或并组合(disjunction)纳入统一框架。


图 2.智能体-环境系统。智能体是从状态st(或历史)和目标ψ到动作at的映射。


核心理论:后悔界与世界模型的等价性


对任何一个有限深度 n 的复合目标集合 Ψₙ,若一个策略 π 能够在所有 ψ∈Ψₙ 上满足


即保持最大策略的 1–δ 成绩(δ为后悔界 ),则可以从该策略本身精确地“回收”出一个转移函数近似。研究证明:随着目标深度 n 增大、或后悔界 δ→0,近似误差以 O(δ/√n)+O(1/n) 速度收敛于 0。这一结果表明,若智能体能在多步长进程目标上保持较低后悔水平,就必然学到了环境的预测模型,二者在信息论上等价。


算法实践:从策略抽取环境模型


基于上述定理,作者进一步设计了一个无监督通用的世界模型回收算法。该算法仅与策略 π 和目标生成器交互,不依赖智能体内部网络激活或对环境的额外访问。它构造一系列“互斥子目标”ψ₁∨ψ₂,统计策略 π 在不同时刻对两者的选择概率,通过二项分布中位数的猜测反演出转移函数Pss'(a)的估计值,并以理论界限保证估计误差。


实验验证:模型精度随任务深度演进


在一组随机生成的 20 状态、5 动作受控马氏过程环境中,研究训练了多批智能体,并测量它们对不同目标深度 ψ 的平均后悔⟨δ⟩。结果显示,即使这些智能体在某些目标上后悔达 1(完全失效),只要它们对深度 n 目标在平均后悔 ⟨δ⟩ 水平较低,算法依然能以 ∼O(n⁻¹ᐟ²) 速率回收高精度环境模型。这一实证验证了定理的鲁棒性:即便严格假设不完全满足,策略中隐含的“世界模型”依然可提取。


图 3. a) 根据算法重建的世界模型中的平均误差, ⟨λ⟩,随着智能体学习推广到更高深度的目标而减少。B)⟨δ(n= 50)⟩的平均误差缩放,智能体为深度n= 50个目标实现的平均后悔。


深度讨论:模型学习的多重意义


本文的理论与实证结果带来多重启示:首先,无模型通向通用智能之路并不存在——任何长期目标泛化都要求模型学习,否则后悔将不可避免;其次,隐式世界模型或许正是大规模语言模型等“基础模型”(foundation models)中涌现能力的根本机制;再次,对安全与可解释性的需求也因而得到理论保障:我们可从“黑箱”策略中提炼出预测模型,用于计划验证与风险评估;最后,定理反转了“好调节者定理”(Good Regulator Theorem),不仅展示剂对环境的最优控制暗示模型存在,也给出了可构造回收映射


拥抱世界模型,迈向通用智能


研究从信息论视角正式回答了“通用智能体是否需要世界模型”的基础问题:要想在多步复杂目标中保持低后悔,就必须学会环境转移函数的近似,二者在本质上等价。未来,通用人工智能研究应正视世界模型学习的挑战与价值,不再将其视作可选项,而是通向可靠性、效率与可解释性的核心路径。

如果你对大模型可解释性的话题感兴趣,欢迎你报名集智最近策划的「破解AI黑箱的四重视角:大模型可解释性读书会」,详情见文末。

参考文献:

1. Johnson-Laird, P. N. Mental models: Towards a cognitive science of language, inference, and consciousness. Number 6. Harvard University Press, 1983.

-直播预告-

大模型可解释性读书会

集智俱乐部联合上海交通大学副教授张拳石、阿里云大模型可解释性团队负责人沈旭、彩云科技首席科学家肖达、北京师范大学硕士生杨明哲和浙江大学博士生姚云志共同发起「大模型可解释性」读书会。本读书会旨在突破大模型“黑箱”困境,尝试从以下四个视角梳理大语言模型可解释性的科学方法论:

自下而上:Transformer circuit 为什么有效?

自上而下:神经网络的精细决策逻辑和性能根因是否可以被严谨、清晰地解释清楚?

复杂科学:渗流相变、涌现、自组织等复杂科学理论如何理解大模型的推理与学习能力?

系统工程:如何拥抱不确定性,在具体的业界实践中创造价值?


五位发起人老师会带领大家研读领域前沿论文,现诚邀对此话题感兴趣的朋友,一起共创、共建、共享「大模型可解释性」主题社区,通过互相的交流与碰撞,促进我们更深入的理解以上问题。无论您是致力于突破AI可解释性理论瓶颈的研究者,探索复杂系统与智能本质的交叉学科探索者,还是追求模型安全可信的工程实践者,诚邀您共同参与这场揭开大模型“黑箱”的思想盛宴。


读书会计划于2025年6月19日启动,每周四晚19:30-21:30,预计持续分享10周左右。



详情请见:破解AI黑箱的四重视角:大模型可解释性读书会启动


推荐阅读

1.通用人工智能:是什么?如何测试?如何实现?

2.梅拉妮·米歇尔Science刊文:“通用人工智能”本质之辩

3.图灵完备与目标完备:从通用计算机到通用人工智能的预言

4. 涌现动力学如何用来分析复杂系统? | 新课上线

5. AI时代的学习:共探人类学习的复杂性

6. 探索者计划 | 集智俱乐部2025内容团队招募(全职&兼职)

7. 系统科学前沿十讲:理解自然、生命与社会的复杂性


点击“阅读原文”,报名读书会 

阅读原文

跳转微信打开

Fish AI Reader

Fish AI Reader

AI辅助创作,多种专业模板,深度分析,高质量内容生成。从观点提取到深度思考,FishAI为您提供全方位的创作支持。新版本引入自定义参数,让您的创作更加个性化和精准。

FishAI

FishAI

鱼阅,AI 时代的下一个智能信息助手,助你摆脱信息焦虑

联系邮箱 441953276@qq.com

相关标签

世界模型 模型无关学习 通用智能体
相关文章