集智俱乐部 2024年11月22日
连接人工智能与神经科学的桥梁:具有内部复杂性的神经网络模型|Nat. Comput. Sci. 速递
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_guoji1.html

 

近期发表在Nature Computational Science的一项研究,通过在单个神经元中添加丰富的属性,构建了一种具有神经元内部复杂性的小模型,该模型可以与外部复杂性高的大模型等效。研究发现,这种小模型在深度学习任务中表现出与大模型相当的空间和时间信息提取能力以及噪声鲁棒性,同时显著提高了计算效率。研究者认为,通过探索计算神经科学与人工智能的交叉点,模仿大脑皮层并利用丰富的时空动态,可以有效解决现有大模型面临的算力消耗和理解困难等瓶颈问题,为构建通用人工智能提供新的思路。

🤔**内部复杂性的小模型等效于外部复杂性的大模型:** 研究通过在单个神经元中添加丰富属性,构建了具有内部复杂性的小模型,其性能与外部复杂性高的大模型相当,例如在深度学习任务中的空间和时间信息提取能力以及噪声鲁棒性方面。

💡**利用LIF神经元构建tv-LIF2HH子网络:** 研究引入了由4个具有时变电导的LIF神经元组成的子网络结构tv-LIF2HH,并通过一系列近似简化方法构建了s-LIF2HH网络,实现了对HH模型的近似,降低了模型的复杂度。

🚀**提高计算效率,解决大模型瓶颈:** 与外部复杂性高的大模型相比,内部复杂性的小模型在深度学习任务中具有更高的计算效率,这有效解决了大模型在训练和应用中面临的算力消耗和理解困难等问题。

🧠**探索计算神经科学与人工智能的交叉点:** 研究认为,通过模仿大脑皮层并利用丰富的时空动态,可以找到计算神经科学与人工智能的交叉点,为构建通用人工智能提供新的思路。

📊**模型内部和外部复杂性的可比性:** 研究结果表明,模型的内部复杂性和外部复杂性之间存在可比性,可以通过提高模型的内部复杂性来提高其性能,从而降低对外部复杂性的依赖。

原创 集智编辑部 2024-11-22 21:49 北京

通过给单个神经元添加丰富的属性,构建了一种具有神经元内部复杂性的小模型,可与外部复杂性的大模型等效。


关键词:复杂网络,神经科学,人工智能,神经网络




论文题目:Network model with internal complexity bridges artificial intelligence and neuroscience

论文地址:https://www.nature.com/articles/s43588-024-00674-9

期刊名称:Nature Computational Science


当今人工智能研究人员普遍认为,通用人工智能的构建需要依靠更深、更大规模和更泛化的神经网络模型。然而,这种外部复杂性高的大模型瓶颈也是显而易见:消耗过多算力,理解网络中神经元的行为十分困难。近期发表在Nature Computational Science 的一项研究,通过给单个神经元添加丰富的属性,构建了一种具有神经元内部复杂性的小模型,可与外部复杂性的大模型等效


研究者认为通过找到计算神经科学与人工智能的交叉点,模仿大脑皮层并利用丰富的时空动态,可以帮助解决现有大模型的瓶颈问题。本研究中引入了由4个具有时变电导的LIF神经元组成的子网络结构 tv-LIF2HH。首先,在理论上推导出内部复杂度较低的 LIF2HH 模型和内部复杂度较高的 HH 模型,二者在激发特性上等价。而后在实验中,为解决实际训练中的复杂性问题,研究者使用了一系列近似简化的方法,包括近似发放函数,在网络中使用直接连接,固定神经元电导等(图2c),构建得到s-LIF2HH网络。结果显示,两种神经元模型对不同波形的发放模式都非常相似,放电时间之间的相对误差均低于10%。


在深度学习任务中,研究者发现HH和s-LIF2HH网络结构都具有较强的空间和时间信息提取能力,单个HH神经元信息处理能力的增强补偿了其简单的拓扑结构;HH和s-LIF2HH网络具有相似的噪声鲁棒性,鲁棒性来源于HH神经元的动态复杂性和s-LIF2HH的复杂拓扑结构,而不仅仅是神经元数量。这支持了模型内部和外部复杂性之间的可比性,以及在深度学习任务中,超越了神经元动态模式简单但规模大的模型。此外,与s-LIF2HH网络相比,HH网络提供了可观的计算效率,表明将外部复杂性转换为内部复杂性提高了深度学习模型的效率。


图 1. (a) 神经元仿真模型和神经元网络结构分别对应不同水平的复杂度。具有非常精细和丰富动力学描述的神经元仿真模型对应更高内部复杂度,具有更深和更广泛连接的网络对应更高外部复杂度。(b) 模型的表征能力与其总复杂性有关,总复杂性包括内部复杂性和外部复杂性。


图 2. (a)  HH神经元结构及相关电路图。(b) 等价于HH神经元的tv-LIF2HH子网络结构及相关电路图,每个tv-LIF神经元电位的非线性效应之和等于相同尖峰输入下的HH神经元电位。(c) 连接之间的等效性,tv-LIF2HH模型包括近似操作。(d) 由HH神经元与tv-LIF2HH子网络的等效连接组成的神经网络。LIF2HH网络中的每条线代表了从前一子网络中的四个LIF神经元到整个后一子网络的四个不同连接。


图 3. (a) 相同电流输入,单个HH模型和tv-LIF2HH子网络的电位输出。(b) 按网络中采用的模型分类的三种连接:HH、tv-LIF2HH子网络和s-LIF2HH子网络连接。(c) 将二进制编码和简化后的LIF2HH子网络的实验,使用了正方形、正弦、三角形和锯齿形输入信号。(d) HH神经元和s-LIF2HH子网络的尖峰数和相对触发时间误差。


图 4. 网络结构,与多任务学习(a,c),深度强化学习(a,b,d,e,f)和鲁棒性(a,g,h,i)实验结果。



彭晨 | 编译



计算神经科学读书会



详情请见:计算神经科学读书会启动:从复杂神经动力学到类脑人工智能



AI By Complexity读书会



详情请见:

AI by Complexity 读书会启动:复杂性怎样量化和驱动下一代AI系统



推荐阅读

1. 神经系统理解:人工智能与自然大脑交集之处

2. KAN 1.0到2.0:构建全新神经网络结构,开创AI+Science大统一新范式

3. 第三代神经网络模型:面向AI应用的脉冲神经网络

4. 张江:第三代人工智能技术基础——从可微分编程到因果推理 | 集智学园全新课程

5. 龙年大运起,学习正当时!解锁集智全站内容,开启新年学习计划

6. 加入集智,一起复杂!



点击“阅读原文”,报名读书会

阅读原文

跳转微信打开

Fish AI Reader

Fish AI Reader

AI辅助创作,多种专业模板,深度分析,高质量内容生成。从观点提取到深度思考,FishAI为您提供全方位的创作支持。新版本引入自定义参数,让您的创作更加个性化和精准。

FishAI

FishAI

鱼阅,AI 时代的下一个智能信息助手,助你摆脱信息焦虑

联系邮箱 441953276@qq.com

相关标签

神经网络 人工智能 神经科学 复杂网络 深度学习
相关文章