MIT 科技评论 - 本周热榜 07月21日 00:09
科学家提出DEL-ToM,用小模型理解他人想法
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_guoji1.html

 

本文介绍了一种名为DEL-ToM(Dynamic Epistemic Logic for Theory-of-Mind)的框架,旨在提升中小规模语言模型在“心智理论”(Theory of Mind, ToM)任务上的可解释推理能力。该框架通过动态认知逻辑与路径评分机制,在不改变模型结构或重新训练的情况下,引导模型生成更合理的信念推理过程。研究还揭示了模型中极度稀疏的“ToM-sensitive parameters”对心智能力的关键作用,这些参数集中在位置编码模块,其微小扰动即可显著影响模型的推理表现。该研究为理解和提升AI的心智能力提供了新的视角和方法,尤其适用于资源受限的场景。

🧠 **DEL-ToM框架提升小模型心智推理能力:** 研究团队提出DEL-ToM框架,结合动态认知逻辑(DEL)和路径评分机制,在不改变模型结构、不重新训练的前提下,通过评价模型在心智测试中的生成过程,帮助其选择更合理的心智推理思路。这使得中小规模语言模型在处理如“John会去哪找巧克力”这类涉及多层嵌套信念的任务时,能够更好地模拟人类的视角推理,而非仅依赖事实信息。DEL-ToM框架包含信念路径生成器和过程评分模型两个协同模块,前者生成多条可能的信念更新序列,后者则评估这些序列的逻辑一致性,最终选取最优路径。

💡 **“ToM-sensitive parameters”揭示心智能力根源:** 通过微扰方法,研究发现语言模型的心智能力高度依赖于极少数“ToM-sensitive parameters”。这些参数仅占模型参数量的极小比例(如0.001%),但其微小变化却能导致心智能力大幅下降。研究进一步定位到这些敏感参数主要集中在Transformer架构的位置编码模块(如RoPE),它们负责调控Query与Key在不同时间步的对齐角度,进而影响模型对事件顺序和角色信念的理解。

🚀 **小模型心智潜力与部署价值:** 研究强调了小模型在提升心智能力方面的潜力,DEL-ToM框架在Hi-ToM数据集上的评估显示,增强后的小模型(如Qwen3-4B)表现甚至优于一些大模型,且其性能增益与模型大小关系不大,表明了良好的适配性和在低资源环境部署的潜力。这对于教育机器人、医疗陪护等需要可解释和资源受限的AI应用具有重要意义,DEL-ToM提供的逻辑路径可直接用于决策解释和反馈生成,增加了AI的信任感和部署价值。

🎯 **心智能力的核心是视角建模而非知识问答:** 研究团队认为,大模型心智能力的本质在于“视角建模”,即理解不同角色的信念和意图,而非简单的知识问答。例如,在“John不知道巧克力位置”的测试中,模型需要理解John的视角,而非直接根据事实回答巧克力所在的位置。复杂的任务甚至需要模型构建多角色、多时间点的动态信念逻辑,这挑战了模型理解文字和推理机制设计的深度。

“AI 能不能真正理解你在想什么?”这看似是哲学或心理学的问题,其实是 AI 下一阶段演进绕不开的技术挑战。技术术语叫做“心智理论”(ToM,Theory of Mind),即模型是否能够理解、推理和预测他人的信念与意图。

目前,大语言模型在部分心智测试中已展现出一定的能力,但其对资源的依赖使得在移动设备、低功耗场景、教育陪伴型产品中难以直接部署。美国斯蒂文斯理工学院张登辉和徐兆卓助理教授和团队关注的核心问题是:如何让中小规模语言模型在生成过程中逐渐成长,最终具备“理解人”的基本能力?

为此,研究团队提出了一种基于动态认知逻辑 (Dynamic Epistemic Logic, DEL) 与路径评分机制的推理阶段增强框架——DEL-ToM(Dynamic Epistemic Logic for Theory-of-Mind),旨在提升小模型在复杂心智测试中的可解释推理能力。不改变模型结构、不重新训练,只通过一个对于模型在心智测试中的生成过程进行评价,帮助模型推理式生成过程中选择更合理的心智推理思路。

心智测试任务的难点不在于语言理解,而在于对多层嵌套信念的建模。模型不仅需要识别事实,还需理解“角色 A 认为角色 B 误解了角色 C 的行为“这类高阶结构。研究团队认为大模型心智的本质不是知识问答,而是视角建模。

举个经典例子:John 把巧克力放在抽屉里,然后出门了。Mary 悄悄把巧克力移到了桌上。现在问题是:“John 回来后会去哪找巧克力?”

这个问题的标准答案应该是“抽屉”,因为 John 并不知道巧克力已经被挪走了。但很多小模型会直接说“桌上”,它们只看到了事实,而没有理解 John 的视角。

更复杂的任务涉及三阶嵌套(A 知道 B 以为 C 不知道...),这就要求模型不仅理解文字,还要构建多角色、多时间点的动态信念逻辑,挑战非常高。人类儿童在 4 岁左右逐渐习得这类推理,而语言模型并不具备内置的信念建模机制。当它们面对“John 不知道 Mary 换了巧克力位置”的任务时,往往会直接根据事实回答,忽略主角的视角限制。这一现象在二阶及以上信念任务中尤为明显。这也意味着,心智能力的构建,不只是训练数据覆盖问题,更是推理机制设计问题。

(来源:资料图)

据介绍,DEL-ToM 的核心由两个协同模块构成。

第一个协同模块是,信念路径生成器(Belief Trace Generator),给定文本场景,语言模型生成多个可能的信念更新序列,每条路径代表角色对世界状态的动态理解过程。每条路径由若干嵌套更新组成,形式化表达 DEL 动态认知逻辑中的状态转移。

第二个协同模块是过程评分模型(PBM,Process Belief Model),利用 DEL 动态认知逻辑标签训练的轻量化评分器,对每条路径逐步评估其逻辑一致性与结构合理性。最终,选取得分最高路径作为答案来源。

研究团队强调的是一种推理阶段的“信念路径选择”,让模型像人一样“先构建推理过程,再输出结论”。这个方法不需要额外训练数据,不依赖外部知识库,仅通过逻辑约束和评分机制就能提升推理质量。

(来源:资料图)

研究团队在 Hi-ToM 数据集上评估 DEL-ToM 的性能,测试模型包括 LLaMA,Qwen 等模型系列,覆盖各种形式的 ToM 任务。

关键发现包括:

    Qwen3-4B 模型在 DEL-ToM 增强后表现超过 DeepSeekV3 和 GPT-4.1;
    LLaMA3.2-7B 在 DEL-ToM 增强后表现接近 GPT-4.1;
    DEL-ToM 显著扩展小模型在 ToM 心智相关测试的性能,展现小模型的心智提升潜力。

此外,研究团队还在心理学标准测试(Sally-Anne, Ice-Cream Van)上验证了 DEL-ToM 在复杂信念建模方面的结构优势。更重要的是:DEL-ToM 的增益与模型大小关系不大,说明其适配性良好,适合低资源环境部署。

在研究团队的另一篇“兄弟篇”论文《敏感性与稀疏性的交汇:极端稀疏参数模式对大语言模型心智理论的影响》(Sensitivity Meets Sparsity: The Impact of Extremely Sparse Parameter Patterns on Theory-of-Mind of Large Language Models)中,研究团队换了一个新研究角度:ToM 能力究竟是如何在语言模型内部产生的?它是否依赖某些极度稀疏的关键参数?

(来源:资料图)

研究团队首次提出“ToM-sensitive parameters”的概念,即模型中对心智推理结果极其敏感的少量稀疏参数集合。研究团队的方法如下:

    利用微扰方法在保持语言能力不变的条件下,逐步扰动稀疏关键参数;
    精确定位哪些位置的模型参数轻微变化就会造成 心智能力崩塌;

结果发现:只需扰动 0.001% 的参数,模型的 心智 表现就可下降 25% 以上。

更令人惊讶的是,这些敏感参数高度集中在 Transformer 架构中的位置编码模块(如 RoPE),负责调控 Query 与 Key 在不同时间步之间的对齐角度。这种变化会破坏模型对故事事件顺序的理解,进而影响“谁知道了什么”这一 心智 核心要素。

(来源:资料图)

总的来说,这项研究的意义在于:为大模型心智能力提供了神经机制层面的解释,即大模型心智能力并非大规模参数协同涌现,而是具备高度结构性;可用于未来人工智能模型心智能力检测和注入等应用的参数级调控工具设计。

两项工作从不同角度强化研究团队对“语言大模型是否真正具备心智”的理解,并为后续可解释大模型、社会人格注入等方向提供理论基础与工程方法。

图 | 研究团队:史蒂文斯理工张登辉老师和徐兆卓老师(来源:资料图)

为什么研究团队强调“小模型”?很多人对该团队提出疑问:为什么不直接训练一个大模型解决 任务?

理由有三:

    成本可控:边缘场景、K12 教育、陪伴型机器人无法承载大模型部署成本;
    可解释性强:小模型的输出更容易被分析、纠偏和对齐;
    科学价值:小模型更容易研究“为什么出错”“模型到底学到了什么”。

研究团队相信,小模型也具备在实践中提升心智,达到大模型心智水平的潜力。其表示,心智能力在多个实际场景中具有重要价值,尤其在资源受限设备与需要高度可解释输出的系统中,比如用于教育机器人、医疗陪护系统、心理健康对话系统等。DEL-ToM 提供的逻辑路径可直接用于决策解释与反馈生成,具有良好的信任感与部署价值。

研究团队表示,DEL-ToM 并非简单提升小模型性能的工具,更是推动“过程可解释、结构可控、生成可信”这一方向的一次尝试。在研究团队看来,心智不仅是能力评估指标,更是通向可信 AI 的桥梁。未来研究团队还将进一步探索大模型的多路径共识机制、心智评估与修正策略、跨模态信念建模(文本 + 图表 + 场景模拟)。研究团队相信,理解他人想法不仅是大模型的能力边界,更是建立信任、服务人类的必要能力。

运营/排版:何晨龙

Fish AI Reader

Fish AI Reader

AI辅助创作,多种专业模板,深度分析,高质量内容生成。从观点提取到深度思考,FishAI为您提供全方位的创作支持。新版本引入自定义参数,让您的创作更加个性化和精准。

FishAI

FishAI

鱼阅,AI 时代的下一个智能信息助手,助你摆脱信息焦虑

联系邮箱 441953276@qq.com

相关标签

心智理论 语言模型 DEL-ToM 参数敏感性 AI可解释性
相关文章