DeepTech深科技 06月23日 19:11
当AI性能狂飙,类脑之路却“南辕北辙”?科学家的交叉研究带来认知颠覆
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_guoji1.html

 

一项由布朗大学和哥伦比亚大学联合团队的研究表明,虽然高性能AI模型在物体识别方面表现出色,但其在神经表征和行为反应上与灵长类动物视觉系统差异增大。这挑战了“AI进步推动脑科学发展”的传统认知,强调了构建功能性AI工具与理解大脑机制的区别。研究者提出“和谐化”方法,尝试引入人类视觉注意机制,并呼吁视觉科学建立独立于工程AI的方法论体系,结合生物数据与大规模训练,推动跨学科研究,以实现更接近人脑的AI。

🧠 深度神经网络(DNN)在视觉感知任务中表现出色,但其与灵长类动物视觉系统在神经表征和行为反应上存在差异,高性能AI模型并不等同于类脑模型。

💡 研究者提出“和谐化”方法,通过调整训练数据和目标函数,使模型决策更关注与人类视觉系统一致的关键区域,尝试提升模型生物合理性。

🔬 视觉科学需要建立独立于工程AI的方法论体系,并选择性吸收神经科学的启示来优化DNN,重点突破方向包括时间编码机制、动态稀疏连接、反馈/横向结构、突触可塑性以及多模态整合。

🌱 传统监督学习与大脑学习机制存在本质差异,自监督学习和多模态、动态、交互式的训练环境或能促使模型发展出更强的注意机制、时序整合机制和多模态融合能力。

刘雅坤 2025-06-22 22:27 北京

高性能的AI模型并不等同于类脑模型。

深度神经网络(DNN,Deep Neural Network)作为 AI 领域的重要突破,在视觉感知任务中展现出卓越的性能表现,其识别准确率等关键指标甚至已在特定场景下超越人类水平。这使人们普遍认为,人工智能技术的快速发展将促进对生物智能的深入理解。

然而,由美国布朗大学和美国哥伦比亚大学联合团队最近开展的一项研究却提出了不同的观点:随着 AI 模型在物体识别任务上的表现越来越强,其在神经表征(如下颞叶皮层活动模式)和行为反应(如注意力分配策略)两个关键维度上,与灵长类动物视觉系统的差异反而越来越大。

这提示人们,高性能的 AI 模型并不等于类脑模型,也就是说,模型如果只是为了提升任务准确率,未必会更接近大脑的运算机制。这对神经科学、认知科学与 AI 交叉研究敲响警钟:不能再假设“AI 表现越好,就越接近人脑”。这一发现挑战了人们长期以来的假设,即 AI 的进步将自然而然地推动脑与认知科学的发展。

该论文第二作者、哥伦比亚大学在读博士生冯品源对 DeepTech 表示:“未来的 AI 研究需要明确目标——是构建功能性工具,还是理解大脑机制。如果是后者,我们需要反过来用脑与认知科学的发现来约束模型的设计,而不是仅依赖工程优化。”

图丨论文主要作者从左至右分别为:德鲁·林斯利(Drew Linsley)、冯品源和托马斯·瑟尔(Thomas Serre)(来源:资料图)

日前,相关论文以《更强大的人工智能并不意味着更好的生物模型》(Better artificial intelligence does not mean better models of biology)为题发表在预印本网站 arXiv[1]。布朗大学德鲁·林斯利(Drew Linsley)研究助理教授是第一作者,冯品源是第二作者,布朗大学托马斯·瑟尔(Thomas Serre)教授担任通讯作者。

图丨相关论文(来源:arXiv)

从历史维度来看,人工智能的发展起源于对人脑机制的探索,这一渊源在专业术语中仍有体现——诸如“神经网络”“表征”等核心概念都直接借鉴自神经科学与心理学等领域。典型如诺贝尔物理学奖得主杰弗里·辛顿(Geoffrey Hinton)的学术轨迹,其早期认知心理学研究对人脑的探索为后续 AI 突破奠定了理论基础。

然而,随着计算硬件的迭代升级和技术范式的革新,AI 发展的主导力量已从神经科学、心理学转向计算机科学,这一转变带来了研究范式的根本性重构。过去人们相信,通过优化任务表现(比如 ImageNet 分类 [2]),模型就能自发学到类似人脑的表征,但是从 AI 目前的发展来看,这套逻辑正在失效。

图丨随着深度神经网络在物体识别方面的性能提升,它们作为生物视觉模型的适用性反而降低了(来源:arXiv)

在这一研究背景下,团队提出了“和谐化”方法,尝试在模型优化中引入人类视觉的注意机制。通过调整训练数据和目标函数,使模型决策时更关注与人类视觉系统一致的关键区域,初步验证了提升模型生物合理性的可行性。

然而,该方法仍面临核心挑战:高质量人类行为数据的匮乏使得优化过程本质上仍未完全脱离监督学习的框架。尽管如此,这一研究方向具有双重价值——既增强了模型可解释性,又为理解人类视觉机制提供了新视角。

图丨随着深度神经网络开发策略在过去十年间的演变,驱动其生物视觉预测的模型因素也发生了相应变化(来源:arXiv)

基于这些发现,该研究强调视觉科学需要建立独立于工程 AI 的方法论体系,同时选择性吸收神经科学的启示来优化 DNN 的能效、泛化和鲁棒性。

重点突破方向包括:时间编码机制、动态稀疏连接(模拟神经节能)、反馈/横向结构(实现类皮层的注意调控)、突触可塑性(支持持续学习)以及多模态整合(借鉴海马记忆机制)。这些探索需要在生物合理性与计算效率间寻求平衡,优先实现工程可行的关键特性,而非完全模拟生物细节。

研究指出,当前工程优化的 AI 模型存在系统性偏差,视觉科学研究需审慎使用。未来的突破有赖于生物数据与大规模训练的深度结合,这需要神经科学、认知科学和 AI 领域在实验平台、训练流程和评估标准上建立协同机制。

需要了解的是,大脑不是为静态单一模态任务进化的,而是在一个不断变化、充满多感官输入的世界中发展出来的。因此,传统监督学习的原理和大脑的学习机制之间存在本质差异。正是这一认知推动了自监督学习的兴起,该方法通过从原始数据中自主发掘潜在规律,有效减少了对人工标注的依赖,展现出更强的生物合理性。

另外,如果希望模型学到类似生物的视觉策略,训练环境也应该是多模态、动态、交互式的。例如,可以设计一个虚拟环境,模型需要不断与环境互动、预测未来、聚焦目标以及躲避风险。

冯品源解释说道:“这样的环境将促使模型发展出更强的注意机制、时序整合机制和多模态融合能力。随着具身智能概念的火爆,越来越多的人也关注这一方向——从让 AI 静态感知到真实世界的物体进行交互,从中获得有用的多维度信息。”

图丨深度神经网络能够通过训练来模拟类人的视觉策略(来源:arXiv)

目前,冯品源在哥伦比亚大学祖克曼研究所(Zuckerman Institute)下属的“视觉推理”实验室(Visual Inference Lab)研究人与 AI 的视觉机制,他的导师是尼古拉斯·克里格斯科特(Nikolaus Kriegeskorte)教授。

他正在努力将认知科学和神经科学的见解推动 AI 发展,同时利用 AI 促进对人类智能的理解。在加入哥伦比亚大学之前,他在布朗大学获得硕士学位,师从托马斯·瑟尔(Thomas Serre)教授,主要研究人类与机器在表征对齐方面的关系。

托马斯·瑟尔团队的前期研究为这一领域奠定了重要基础。在视觉行为层面,他们开发的新型对齐机制首次实现了 AI 在复杂场景中与人类认知策略的高度一致;在神经表征层面,他们发现工程优化的 AI 模型与生物视觉的神经活动模式存在系统性偏离。这些发现为构建新一代神经可解释的感知模型提供了理论框架和方法学指导。

未来,该团队将聚焦两个方向继续研究:围绕 AI 模型展开深度探索,从动态数据(如视频)中学习,使模型的视觉能力更靠近人类;继续构建横跨认知科学、神经科学与计算机科学领域的大规模数据平台,推动跨学科研究标准的建立与互认。这些方向有助于为 AI 与生物智能研究提供更丰富的视角。

参考资料:

1.https://arxiv.org/pdf/2504.16940

2.https://ieeexplore.ieee.org/document/5206848

运营/排版:何晨龙

01/ 微软研发4D几何编码法,有望实现50个逻辑量子比特的创建和纠缠,让编译任何量子算法成为可能

02/ 北大团队制备高质量单晶薄膜,迁移率创纪录突破15.5cm²/V·s,为高性能有机电子器件发展注入新活力

03/ 大模型深度思考竟与物理相变“异曲同工”:科学家揭示“临界学习”奥秘,助力80亿参数模型攻克量子场论核心计算

04/ DNA“密语”被初步破译:北大校友研发活细胞DNA成像技术,实现基于CRISPR的动态DNA成像

05世界首颗超高并行光计算芯片问世:科学家在光芯片上实现超100并行度光计算,算力呈数量级提升

阅读原文

跳转微信打开

Fish AI Reader

Fish AI Reader

AI辅助创作,多种专业模板,深度分析,高质量内容生成。从观点提取到深度思考,FishAI为您提供全方位的创作支持。新版本引入自定义参数,让您的创作更加个性化和精准。

FishAI

FishAI

鱼阅,AI 时代的下一个智能信息助手,助你摆脱信息焦虑

联系邮箱 441953276@qq.com

相关标签

AI模型 类脑模型 神经科学 视觉
相关文章