IT之家 2024年08月16日
中科院联合清华北大构建新型类脑网络,构建 AI 和神经科学的桥梁
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_guoji1.html

 

中国科学院自动化研究所李国齐、徐波研究团队联合清华大学、北京大学等,借鉴大脑神经元复杂动力学特性,提出了“基于内生复杂性”的类脑神经元模型构建方法,有效降低了传统模型的计算资源消耗,为将神经科学的复杂动力学特性融入人工智能提供了新的方法和理论支持。

🤔 研究团队证明了 HH 神经元可以与四个具有特定连接结构的时变参数 LIF 神经元(tv-LIF)动力学特性等效,并基于此等效性,通过设计微架构提升计算单元的内生复杂性,使 HH 网络模型能够模拟更大规模 LIF 网络模型的动力学特性,在更小的网络架构上实现与之相似的计算功能。

💡 研究团队将由四个 tv-LIF 神经元构建的“HH 模型”(tv-LIF2HH)简化为 s-LIF2HH 模型,并通过仿真实验验证了这种简化模型在捕捉复杂动力学行为方面的有效性。实验结果表明 HH 网络模型和 s-LIF2HH 网络模型在表示能力和鲁棒性上具有相似的性能,验证了内生复杂性模型在处理复杂任务时的有效性和可靠性。

🚀 此外,研究还发现 HH 网络模型在计算资源消耗上更为高效,显著减少了内存和计算时间的使用,从而提高了整体的运算效率。

🧠 研究团队通过信息瓶颈理论对上述研究结果进行了解释,为构筑人工智能与神经科学的桥梁提供了新的方法和理论支持,为实际应用中的 AI 模型优化和性能提升提供了可行的解决方案。

🚀 目前,研究团队已开展对更大规模 HH 网络,以及具备更大内生复杂性的多分支多房室神经元的研究,有望进一步提升大模型的计算效率与任务处理能力,实现在实际应用场景中的快速落地。

IT之家 8 月 16 日消息,据“中国科学院自动化研究所”消息,该所李国齐、徐波研究团队联合清华大学、北京大学等借鉴大脑神经元复杂动力学特性,提出了“基于内生复杂性”的类脑神经元模型构建方法,改善了传统模型通过向外拓展规模带来的计算资源消耗问题,为有效利用神经科学发展人工智能提供了示例。相关研究论文今日在线发表于《自然・计算科学》(Nature Computational Science)。

IT之家附研究主要内容:

据介绍,本研究首先展示了脉冲神经网络神经元 LIF(Leaky Integrate and Fire)模型和 HH(Hodgkin-Huxley)模型在动力学特性上存在等效性,进一步从理论上证明了 HH 神经元可以和四个具有特定连接结构的时变参数 LIF 神经元(tv-LIF)动力学特性等效。基于这种等效性,团队通过设计微架构提升计算单元的内生复杂性,使 HH 网络模型能够模拟更大规模 LIF 网络模型的动力学特性,在更小的网络架构上实现与之相似的计算功能

▲ 神经元和神经网络的内生复杂性与外部复杂性(图源中国科学院自动化研究所,下同)

进一步,团队将由四个 tv-LIF 神经元构建的“HH 模型”(tv-LIF2HH)简化为 s-LIF2HH 模型,通过仿真实验验证了这种简化模型在捕捉复杂动力学行为方面的有效性。

实验结果表明 HH 网络模型和 s-LIF2HH 网络模型在表示能力和鲁棒性上具有相似的性能,验证了内生复杂性模型在处理复杂任务时的有效性和可靠性。同时,研究发现 HH 网络模型在计算资源消耗上更为高效,显著减少了内存和计算时间的使用,从而提高了整体的运算效率。研究团队通过信息瓶颈理论对上述研究结果进行了解释。

▲ 模型框架

本研究为将神经科学的复杂动力学特性融入人工智能,为构筑人工智能与神经科学的桥梁提供了新的方法和理论支持,为实际应用中的 AI 模型优化和性能提升提供了可行的解决方案。目前,研究团队已开展对更大规模 HH 网络,以及具备更大内生复杂性的多分支多房室神经元的研究,有望进一步提升大模型的计算效率与任务处理能力,实现在实际应用场景中的快速落地。

论文链接:

Fish AI Reader

Fish AI Reader

AI辅助创作,多种专业模板,深度分析,高质量内容生成。从观点提取到深度思考,FishAI为您提供全方位的创作支持。新版本引入自定义参数,让您的创作更加个性化和精准。

FishAI

FishAI

鱼阅,AI 时代的下一个智能信息助手,助你摆脱信息焦虑

联系邮箱 441953276@qq.com

相关标签

类脑神经元 内生复杂性 人工智能 神经科学
相关文章