集智俱乐部 18小时前
大模型上下文学习的统计物理视角丨周四直播·大模型可解释性读书会
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_guoji1.html

 

大语言模型展现出惊人的上下文学习能力,能仅凭输入提示和示例完成新任务。本次分享梳理大模型训练和部署流程,将上下文学习与统计物理模型联系,用平均场理论解释其背后的物理图像,揭示预训练任务多样性如何催生上下文学习能力。

📚上下文学习(ICL)指大型语言模型通过输入示例和任务描述,在不更新参数情况下执行新任务的能力,最初由Brown等人在GPT-3研究中提出。

🧲自旋玻璃模型是描述磁性合金材料亚稳定状态的数学模型,其长程无序性特点与ICL的随机性和阻挫性相似,为理解ICL提供了物理视角。

🔍空腔方法是求解统计物理平均场模型的数学工具,特别适用于自旋玻璃模型,后来发现其与其他领域方法(如信念传播算法)密切相关,显示出更广泛的适用性。

⛰️能量景观在物理中描述系统在一组广义坐标下的势能,在机器学习中描述系统在参数空间中的损失函数,为优化问题提供直观几何视角。

🔄随着预训练任务多样性的增加,模型的能量景观会出现全局最小值,从而自然地催生出上下文学习能力,这一发现将ICL与统计物理联系起来。

2025-07-22 18:10 浙江

2025年7月24日(周四)晚上19:30-21:30直播

导语


集智俱乐部联合上海交通大学副教授张拳石、阿里云大模型可解释性团队负责人沈旭、彩云科技首席科学家肖达、北京师范大学硕士生杨明哲和浙江大学博士生姚云志共同发起「大模型可解释性」读书会。本读书会旨在突破大模型“黑箱”困境,尝试从不同视角梳理大语言模型可解释性的科学方法论。


什么是上下文学习?大语言模型如何通过上下文学习获得更强的泛化能力和通用性?上下文学习背后的理论机制又是什么?本次分享中将结合黄海平教授团队最近的工作,详细介绍上下文学习的前因后果,从一个简单的情景出发,通过巧妙的物理模型和强大的数学工具,揭开上下文学习背后的统计物理图像。


分享简介


大语言模型展现出令人惊讶的上下文学习能力:能够仅依靠输入提示和少量示例,在无需额外训练的情况下完成未见过的复杂任务。如何为这一经验现象提供理论解释,并将其与理论物理建立联系,是一个具有挑战性的问题。在本次分享中,我们首先带领大家梳理大模型训练和部署的流程,说明为什么需要上下文学习;然后我们考虑一个简单的情景,将上下文学习任务与经典的统计物理模型建立联系,使用平均场理论求解这个模型,并且解释其背后的物理图像。我们将会揭示,随着预训练任务多样性的增加,模型的能量景观会出现一个全局最小值,从而自然地催生出上下文学习能力。


分享大纲


背景回顾

机器学习的发展历程

大语言模型和Transformer结构

上下文学习的基本概念

相关内容

相关工作介绍

统计物理方法介绍

统计物理模型

从上下文学习到自旋模型

使用空腔方法求解模型

能量景观与物理图像分析

总结与展望

创新点和局限性

进一步的研究方向


核心概念


上下文学习 In-Context Learning

上下文学习(ICL)是指大型语言模型能够通过输入中提供的示例和任务描述,在不更新模型参数的情况下学习执行新任务的能力。这一概念最初由Brown等人在GPT-3的研究中提出。

自旋玻璃模型 Spin Glass Model

自旋玻璃是磁性合金材料的一种亚稳定的状态,其中的磁矩分布呈现出长程无序性。物理学家提出很多数学模型来描述这种具有随机性和阻挫性的系统,后来发现这些模型及其发展出的物理方法可以应用在更广泛的复杂系统和无序网络的研究中。

空腔方法 Cavity Method

空腔方法是M. Mézard、G. Parisi等人发展出的一种数学工具,用于求解统计物理中的平均场模型,特别是自旋玻璃模型,后来发现其与其他领域的方法(比如信念传播算法)密切相关,显示出更广泛的适用性。

能量景观 Energy Landscape

在物理中,能量景观描述的是系统在一组广义坐标下的势能;在机器学习中,能量景观描述的系统在某个参数空间中的损失函数;更普遍地来看,它实际上为数学中的优化问题提供了一个直观的几何视角。


参考文献


[1] Yuhao Li, Ruoran Bai, and Haiping Huang. Spin glass model of in-context learning. arXiv:2408.02288, 2024

[2] Mezard M, Parisi G, Virasoro M A. Spin Glass Theory and Beyond[M]. World Scientific, 1986.

[3] Huang H. Statistical mechanics of neural networks[M]. Springer, 2021.

[4] Brown T, Mann B, Ryder N, et al. Language Models are Few-Shot Learners[C]. Advances in Neural Information Processing Systems: Vol. 33. 2020: 1877-1901.

[5] Von Oswald J, Niklasson E, Randazzo E, et al. Transformers Learn In-Context by Gradient Descent[C]. International Conference on Machine Learning, ICML, 2023.

[6] Lu Y M, Letey M I, Zavatone-Veth J A, et al. Asymptotic theory of in-context learning by linear attention[A]. 2024. arXiv: 2405.11751.

[7] Chen S, Sheen H, Wang T, et al. Training Dynamics of Multi-Head Softmax Attention for In-Context Learning: Emergence, Convergence, and Optimality[A]. 2024. arXiv: 2402.19442.


主讲人简介



李宇豪,本科期间在中山大学物理学院黄海平教授的PMI Lab(物理、机器与智能实验室)实习,研究方向为无序系统的统计物理,特别是自旋玻璃的平均场理论、神经网络的泛化原理、大模型背后的物理机制。


参与方式


参与时间2025年7月24日(周四)晚上19:30-21:30

报名加入社群交流

https://pattern.swarma.org/study_group_issue/949?from=wechat

扫码参与「大模型可解释性」读书会,加入社群,获取系列读书会永久回看权限,与社区的一线科研工作者沟通交流,共同探索大模型可解释性这一前沿领域的发展。

大模型可解释性读书会

集智俱乐部联合上海交通大学副教授张拳石、阿里云大模型可解释性团队负责人沈旭、彩云科技首席科学家肖达、北京师范大学硕士生杨明哲和浙江大学博士生姚云志共同发起「大模型可解释性」读书会。本读书会旨在突破大模型“黑箱”困境,尝试从以下四个视角梳理大语言模型可解释性的科学方法论:

自下而上:Transformer circuit 为什么有效?

自上而下:神经网络的精细决策逻辑和性能根因是否可以被严谨、清晰地解释清楚?

复杂科学:渗流相变、涌现、自组织等复杂科学理论如何理解大模型的推理与学习能力?

系统工程:如何拥抱不确定性,在具体的业界实践中创造价值?


五位发起人老师会带领大家研读领域前沿论文,现诚邀对此话题感兴趣的朋友,一起共创、共建、共享「大模型可解释性」主题社区,通过互相的交流与碰撞,促进我们更深入的理解以上问题。无论您是致力于突破AI可解释性理论瓶颈的研究者,探索复杂系统与智能本质的交叉学科探索者,还是追求模型安全可信的工程实践者,诚邀您共同参与这场揭开大模型“黑箱”的思想盛宴。


读书会已于2025年6月19日启动,每周四晚19:30-21:30,预计持续分享8-10周左右。



详情请见:破解AI黑箱的四重视角:大模型可解释性读书会启动

点击“阅读原文”,报名读书会

阅读原文

跳转微信打开

Fish AI Reader

Fish AI Reader

AI辅助创作,多种专业模板,深度分析,高质量内容生成。从观点提取到深度思考,FishAI为您提供全方位的创作支持。新版本引入自定义参数,让您的创作更加个性化和精准。

FishAI

FishAI

鱼阅,AI 时代的下一个智能信息助手,助你摆脱信息焦虑

联系邮箱 441953276@qq.com

相关标签

大模型 上下文学习 统计物理 可解释性
相关文章