近年来,人工智能,特别是大语言模型(Large Language Models, LLMs),已经在多个领域展现出令人惊讶的能力——不仅能像人一样进行自然对话,还能在编程、游戏、化学、生物学等复杂任务中达到接近甚至超过专家的水平。比如,AlphaFold因为对蛋白质复杂结构的预测,获得了2024年诺贝尔化学奖。这些强大的人工智能( AI) 系统最初其实是受到心理学和神经科学的启发而发展起来的:早期的“连接主义”(Connectionism)模型就是对神经元活动的一种高度抽象的模拟。随着技术的发展,现代AI逐渐脱离对神经系统的直接模仿,走向更注重工程效率的设计。人工智能的飞速发展,正在重新激发人们对一个关键问题的关注:AI 能否反过来帮助我们理解大脑?而大脑的结构和计算机制,又能否为构建更智能的 AI 提供线索?加州大学圣地亚哥分校五年级博士生,集智俱乐部「因果涌现」读书会主题社区成员李济安在此领域的相关研究被《Nature》和NeuralPS等期刊接收,对此进行报道。
关键词:NeuroAI,人工智能,微型循环神经网络,上下文学习,情景记忆
李济安、熊华东丨作者张江丨审校在大语言模型能力如此强大的背景下,AI 与神经科学之间的联系变得前所未有地重要,催生了一个新兴领域:NeuroAI。它关注两个角度的问题:1. 用 AI 来研究大脑(AI for Neuro):在实验上,AI 技术可以帮助科学家自动化数据分析、提取神经和行为特征;在理论上,人工神经网络能模拟人脑中神经元的活动规律与认知过程,从而验证、甚至提出新的神经科学理论。2. 用大脑来启发 AI(Neuro for AI):我们能否用神经科学技术理解 AI 系统的“内部工作原理”?此外,因为生物大脑的信息处理效率远超当前的AI系统,我们能否基于神经科学的启发让 AI 更聪明、更节能、更类人?为回应上述两个核心问题,我们提出一种基于微型循环神经网络的模型,它能用极少的参数来处理序列化数据,用以刻画生物体的策略学习,揭示出决策行为中隐含的复杂认知机制,发表于《自然》期刊;并从认知神经科学的角度出发,系统分析了大语言模型的注意力机制,发现其运作方式与人类的自由回忆过程惊人地相似,发表于《神经信息处理系统大会》顶级会议。
虽然这些字符本身没有具体含义,但归纳头能识别出其中的重复结构“APOQ”,并在第二次遇到“A P O”时,自动预测下一个应为“Q”。也就是说,即便序列本身是随机的(没有出现在训练语料中),只要有模式可循,归纳头就能对其进行捕捉和复制。这一机制表明:即便在无显式规则的条件下,归纳头也能通过局部模式学习实现泛化,体现出类似“在观察中学习”的能力。我们进一步提出一个假设:这种归纳头的行为机制是否类似于人类在自由回忆任务中的表现(图5)自由回忆指的是个体在听完一组单词后尽可能多地回忆这些单词的心理任务。心理学中一个经典模型是上下文维护与检索(Context Maintenance and Retrieval,CMR)模型,它是一种人类的记忆方式,记忆的提取依赖于当前情境与过往记忆之间的上下文匹配。CMR 记忆模型能有效解释两类现象:新近效应(更易记住末尾项目)与时序效应(回忆顺序倾向保留原来记忆刺激时的顺序)。 图5 人类实验、 CMR 模型和大语言模型的条件回忆概率(CRP)。(左) PEERS 数据集(N=171)的参与者条件回忆概率(CRP)。(中) 展示了不同参数的 CMR 模型,有些参数对应人类自由回忆的行为。(右) 展示了几个典型“归纳头”的注意力分布及其由 CMR 模型拟合的注意力分布。我们发现了令人惊讶的一个现象,LLM的部分中后层注意力头在行为上高度类似于 CMR 人类记忆模型(图5):它们倾向聚焦于时间上邻近的词元(token)。进一步分析表明,这些注意力机制的动态可以被 CMR 精确建模。更重要的是,随着训练的进行,这种“类人记忆偏好”在模型中自发增强,与人类的记忆方式越来越像。这表明,大语言模型在上下文学习中,可能自发形成了一种类似人的记忆内部机制,为我们理解其智能行为提供了新的认知科学视角。为验证这一 CMR 机制的功能性,我们设计了消融实验,系统移除与 CMR 行为最接近的注意力头。结果显示,模型在多个上下文学习任务中的表现显著下降。这说明,这些类似于人的记忆结构并不是偶然产物,而是支撑模型泛化与学习能力的关键组成部分。在另一项后续研究中[5],我们借鉴了神经科学中研究神经反馈的经典实验范式,用于探索LLM是否具备类似元认知的心理功能。结果表明,语言模型确实展现出一定程度的基于上下文学习的元认知能力:它们不仅能够监控自己内部的神经状态,还能在一定程度上对其进行调控。我们的方法可以对LLM的元认知能力及其影响因素进行系统性量化,为今后的研究提供了一个可推广的评估框架。我们正站在一个新的认知神经科学研究转折点上:神经网络不仅仅是模拟人类行为的黑箱,更可用作“认知显微镜”来理解人类心智。同时,心理学与神经科学的理论与技术也为解释与改进 AI 系统提供了强有力的启发。这种互为镜像、相互促进的智能理解体系,正是 NeuroAI 所描绘的愿景。它不仅加深我们对智能本质的理解,也有望推动下一代 AI 系统向更加强大、高效、可解释的方向发展。参考资料[1] Li Ji-An, Marcus K. Benna, and Marcelo G. Mattar. "Discovering Cognitive Strategies with Tiny Recurrent Neural Networks." Nature (2025).[2] Hua-Dong Xiong, Li Ji-An, Marcelo G. Mattar, and Robert C. Wilson. "Distilling human decision-making dynamics: a comparative analysis of low-dimensional architectures." In NeurIPS 2023 AI for Science Workshop.[3] Marcel Binz, Elif Akata, Matthias Bethge, Franziska Brändle, Fred Callaway, Julian Coda-Forno, Peter Dayan et al. "Centaur: a foundation model of human cognition." arXiv preprint arXiv:2410.20268 (2024).[4] Li Ji-An, Corey Zhou, Marcus Benna, and Marcelo G. Mattar. "Linking in-context learning in transformers to human episodic memory." Advances in neural information processing systems 37 (2024): 6180-6212.[5] Li Ji-An, Hua-Dong Xiong, Robert C. Wilson, Marcelo G. Mattar, and Marcus K. Benna. "Language Models Are Capable of Metacognitive Monitoring and Control of Their Internal Activations." arXiv preprint arXiv:2505.13763 (2025).