集智俱乐部 4小时前
从网络科学理解智能:大模型中的自组织与涌现丨周日直播·大模型可解释性读书会
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_guoji1.html

 

本次读书会邀请田纳西大学助理教授肖熊烨分享如何从网络科学角度理解智能本质,特别是大语言模型中的自组织行为和结构涌现。肖老师团队提出基于多重分形分析的图建模方法,量化神经交互网络的复杂性、异质性及训练演化模式,为理解智能系统生成规律提供新视角。

🔬多重分形分析:该方法通过图建模量化神经交互网络的复杂性、异质性及训练演化模式,揭示智能系统结构演化的生成规律。

🧠网络科学视角:从网络科学角度理解智能本质,观察大语言模型中的自组织行为和结构涌现,为分析人工模型提供统一视角。

🧬神经交互网络:将大模型的神经元及其激活关系抽象为图结构,通过分析图结构演化理解智能系统功能生成机制。

📈自组织与涌现:研究大模型训练过程中的自组织现象,量化结构演化带来的新能力,揭示智能系统功能生成的内在规律。

🔍案例分析:从神经元到神经网络,通过具体案例分析多重分形分析在理解智能系统结构演化中的应用。

🤝共创任务:招募对本期内容感兴趣的内容整理共创者,共同推动大模型可解释性研究,并有机会获得集智积分或退费权益。

2025-08-07 18:05 上海

2025年8月10日(周日)早上10:00-12:00直播

导语


集智俱乐部联合上海交通大学副教授张拳石、阿里云大模型可解释性团队负责人沈旭、彩云科技首席科学家肖达、北京师范大学硕士生杨明哲和浙江大学博士生姚云志共同发起「大模型可解释性」读书会。本读书会旨在突破大模型“黑箱”困境,尝试从不同视角梳理大语言模型可解释性的科学方法论。


智能从何而来?大模型中为何会自发形成复杂结构?训练过程中是否存在可观测的自组织与涌现机制?本次分享田纳西大学助理教授肖熊烨将以多重分形分析的图建模为切入点,量化神经交互网络的复杂性、异质性以及随训练演化的模式。从网络科学视角揭示智能系统结构演化的生成规律。


如果你对这个领域感兴趣,肖老师目前也在招募2026年春季博士生和科研项目合作者,详情见主讲人介绍部分。



分享简介


在本次分享中,肖熊烨老师将介绍如何从网络科学的角度理解智能的本质,尤其是在大语言模型等人工智能系统中如何观察到自组织行为和结构涌现。他们团队提出一种基于多重分形分析(Multifractal Analysis)的图建模方法,用于量化神经交互网络的复杂性、异质性以及随训练演化的模式。该方法不仅可用于生物神经网络的建模,也为分析人工模型提供了统一视角,帮助我们从结构入手,深入理解智能系统的生成规律。


分享大纲


 

• 智能与复杂系统的基本特征

• 多尺度结构与网络科学视角

• 大模型训练中的自组织现象

• 基于多重分形的结构建模方法

• 案例分析:从神经元到神经网络

• 启发与展望:AI for Science 与 Science for AI


核心概念


自组织(Self-Organization):无需外部指导,系统自身形成结构或功能模式

涌现(Emergence):个体交互下产生的系统新行为或性质

多重分形谱(Multifractal Spectrum):反映网络异质性和复杂度的指标

神经交互网络(NIN):将大模型的神经元及其激活关系抽象为图结构

结构涌现指标(Emergence Measure):量化结构演化带来新能力的指标


参考文献


    (基于多重分形分析框架研究大模型的自组织与涌现)Xiao, Xiongye, et al. Neuron-based Multifractal Analysis of Neuron Interaction Dynamics in Large Models. ICLR 2025. https://openreview.net/forum?id=nt8gBX58Kh

    (讲者在这篇文章提出了复杂网络的多重分形分析框架)Xiao, Xiongye, Chen, Hanlong, and Bogdan, Paul. Deciphering the generating rules and functionalities of complex networks. Scientific Reports, 2021. https://www.nature.com/articles/s41598-021-02203-4

    (复杂网络自相似领域开山之作)Song, C., Havlin, S., & Makse, H.A. Self-similarity of complex networks. Nature, 2005.

    (这篇论文是最早体现分形思想的研究)Mandelbrot, B. How long is the coast of Britain? Statistical self-similarity and fractional dimension. Science, 1967.


共创任务


如果你对这次分享的内容感兴趣,我们正在招募对本期内容进行内容整理的共创者,任务审核通过,我们会根据完成质量回馈集智积分,最高可获得退费权益,并成为集智内容共创团队成员。

详情请点击下方链接,进入集智斑图共创任务领取页查看https://pattern.swarma.org/bounty_mission/1267


主讲人简介



肖熊烨,现任田纳西大学EECS系助理教授,博士毕业于南加州大学ECE系,本科毕业于浙江大学控制科学与工程学院。主要研究方向包括人工智能、复杂网络、神经算子等。

招生信息:肖熊烨团队招收2026年春季博士生,也欢迎硕士生、本科生参与科研项目,欢迎有相关背景的同学联系:

• 有一定编程/数学/科研训练背景

• 对 AI 基础、科学建模、复杂系统等方向有热情

• 有自我驱动力,执行力强

有意向申请者请发简历+成绩单至 xxiao9@utk.edu或xiongyex98@gmail.com。

邮件标题注明:[PhD Application] / [RA Inquiry]


参与方式


参与时间

北京时间2025年8月10日(周日)早上10:00-12:00

报名加入社群交流

(可开发票)

https://pattern.swarma.org/study_group_issue/965?from=wechat

扫码参与「大模型可解释性」读书会,加入社群,获取系列读书会永久回看权限,与社区的一线科研工作者沟通交流,共同探索大模型可解释性这一前沿领域的发展。

大模型可解释性读书会

集智俱乐部联合上海交通大学副教授张拳石、阿里云大模型可解释性团队负责人沈旭、彩云科技首席科学家肖达、北京师范大学硕士生杨明哲和浙江大学博士生姚云志共同发起「大模型可解释性」读书会。本读书会旨在突破大模型“黑箱”困境,尝试从以下四个视角梳理大语言模型可解释性的科学方法论:

自下而上:Transformer circuit 为什么有效?

自上而下:神经网络的精细决策逻辑和性能根因是否可以被严谨、清晰地解释清楚?

复杂科学:渗流相变、涌现、自组织等复杂科学理论如何理解大模型的推理与学习能力?

系统工程:如何拥抱不确定性,在具体的业界实践中创造价值?


五位发起人老师会带领大家研读领域前沿论文,现诚邀对此话题感兴趣的朋友,一起共创、共建、共享「大模型可解释性」主题社区,通过互相的交流与碰撞,促进我们更深入的理解以上问题。无论您是致力于突破AI可解释性理论瓶颈的研究者,探索复杂系统与智能本质的交叉学科探索者,还是追求模型安全可信的工程实践者,诚邀您共同参与这场揭开大模型“黑箱”的思想盛宴。


读书会已于2025年6月19日启动,每周四晚19:30-21:30,预计持续分享8-10周左右。



详情请见:破解AI黑箱的四重视角:大模型可解释性读书会启动

点击“阅读原文”,报名读书会

阅读原文

跳转微信打开

Fish AI Reader

Fish AI Reader

AI辅助创作,多种专业模板,深度分析,高质量内容生成。从观点提取到深度思考,FishAI为您提供全方位的创作支持。新版本引入自定义参数,让您的创作更加个性化和精准。

FishAI

FishAI

鱼阅,AI 时代的下一个智能信息助手,助你摆脱信息焦虑

联系邮箱 441953276@qq.com

相关标签

大模型可解释性 多重分形分析 网络科学 自组织 涌现
相关文章