智源社区 前天 18:54
MLLM集体翻车,缺乏婴儿级常识!业界首个核心认知基准发布,LeCun转赞
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_guoji1.html

 

一项ICML 2025研究揭示,230个主流AI模型在CoreCognition基准的1503道题目中,普遍存在“常识性盲区”,尤其在物体持久性、视角转换和直觉物理等方面,表现远逊于人类。研究指出,尽管模型拥有强大的高层推理能力,但缺乏婴儿时期就具备的“核心知识”地基,导致在面对不同场景和表述时能力不稳定。通过“概念黑客”方法,研究证明模型并非真正理解,而是依赖捷径学习。研究强调,模型参数规模的增长并未有效弥补这一核心知识的缺失,反而可能加剧“捷径依赖”。该研究呼吁AI发展回归对基础认知能力的重视,以构建更稳健可靠的智能系统。

💡 核心知识缺失导致AI推理“地基不牢”:研究发现,包括GPT、Claude等在内的230个主流AI模型,在物体持久性、视角转换和直觉物理等12项“幼儿园”级别的核心认知能力测试中,表现普遍落后人类,差距高达10-30%。这表明即使模型具备复杂的高层推理能力,也缺乏人类婴儿就拥有的基础世界模型,导致在高层推理和感知任务中表现不稳定。

🔄 模型能力间缺乏关联性,呈“分裂”状态:通过能力关联性矩阵分析,研究发现AI模型在不同认知能力之间呈现“分裂”现象。例如,物体持久性等低阶能力与视角转换等高阶能力之间几乎没有相关性。这与人类认知“下层搭积木,上层盖高楼”的层层递进模式形成鲜明对比,预示着AI模型的基础认知一旦受到扰动,整个智能系统可能瞬间崩塌。

📈 核心知识对多项任务表现至关重要:研究发现,除了视角转换和直觉物理,10项核心能力得分与26个公开基准测试(除OCR相关测试外)存在强正相关。这意味着拥有更好的核心知识,能够显著提升模型在更广泛的高层任务上的表现稳定性,反之,核心知识的缺陷直接影响了模型在这些任务上的可靠性。

📏 参数规模增长无法“长出”核心知识:实验结果显示,将模型规模从10亿扩展到1100亿参数,模型在低阶能力上的表现几乎没有提升,甚至在视角转换能力上有所下降。这表明传统的“大力出奇迹”的规模化路线,在弥补核心知识缺失方面已失效,AI发展的关键课题已转变为“如何规模化出核心知识”。

🧠 “概念黑客”揭示模型依赖捷径学习:研究团队创新的“概念黑客”方法,通过设计“孪生题”来测试模型是否真正理解核心概念。结果表明,大模型在孪生题上的表现并未优于小模型,甚至更糟,暴露了模型对“捷径依赖”的问题。模型并非通过规模增长获得真正的理解,而是变得更“滑头”,依赖于固定的模板和模式识别,而非深层认知。

编辑:LRST

最近,一篇被Yann LeCun转发的ICML 2025研究结果显示,在CoreCognition基准1,503题大考中,230个主流模型纷纷暴露对于世界模型的「常识性盲区」。

再大的多模态语言模型,也缺少人类婴儿就有的「核心知识」地基,即使高层推理再花哨,也架不住地基塌陷。

从下面这张震撼的对比表中,我们可以看到模型在12项「幼儿园」测试中,集体翻车。

    Object Permanence:人类88.1%,最强模型InternVL3-78B仅74.1%,差距14%;

    Perspective Taking:人类91.99%,最强模型QVQ-72B-Preview也仅83.25%,差距9%;

    Intuitive Physics:人类91.52%,最强模型GPT-o1仅75.45%,差距超16%,各大模型普遍落后10-30%不等。

来自加州大学圣地亚哥分校、约翰霍普金斯大学、埃默里大学、北卡罗来纳大学教堂山分校、斯坦福大学、卡内基梅隆大学等机构的研究人员联合认知科学领域科学家,花费一年时间构造并开源了业界首个核心认知基准CoreCognition。

其中包含1,503道精选题目从感知运动到形式运算12项核心能力,每个概念95+样本,全面覆盖人类认知各个发展阶段。

论文链接:https://arxiv.org/pdf/2410.10855

项目网站:https://williamium3000.github.io/core-knowledge/

开源数据集:https://huggingface.co/datasets/williamium/CoreCognition

此外,联合团队还维持了三个高标准:

    判别性(缺乏目标核心知识的模型必然选错答案)

    最小混淆(避免依赖物体识别等无关能力)

    最小文本捷径(答案不能仅通过文本推导获得)

12名标注员协作完成数据集构建,经过双轮交叉验证和20人Amazon Mechanical Turk人工校验。

230个模型大考,涵盖GPT、Claude、Qwen等主流商业模型及开源模型;11种提示策略,全方位测试模型真实能力。

据悉,团队不仅构建了均衡答案位置和混合答案解析的完整评测基础设施,而且还计划开源一个支持这230个模型的MLLM统一测试框架,亮点是极易上手

只需几行代码就能复现本文章及其他热门数据的全部实验结果!


「概念黑客」双重盲盒
捅破捷径学习的遮羞布


更绝的是团队独创的Concept Hacking方法,专门用来识破模型是「真懂」还是「假懂」

核心思路给每道题做一个保持所有无关细节完全相同,只把核心概念反转的「孪生题」

例如其中的Perspective Taking测试

    原版题:图像顺时针旋转90°后,看起来像鸭子还是兔子?→ 测试真正的perspective taking转换理解

    孪生版:同样的旋转操作,但正确答案相反 → 测试是否只是在套用固定模板

    人类表现两题都答对(真正理解空间旋转后的形状变化)

    模型表现原版答对,孪生版直接翻车(暴露对「鸭兔错觉」的刻板印象依赖)



把MLLM的「高级智能」拆解标题


Finding 1:核心知识缺失——高层推理没地基


实验里,模型在低阶任务上集体表现不佳。这说明它们的高级推理/感知没有扎根于人类婴幼儿就具备的核心知识。面对不同表述方式和背景变化时无法表现出robust且稳定高水平的能力。

Finding 2:能力之间「各玩各的」


关联性矩阵显示了模型能力间的「分裂」现象:低阶能力如Permanence、Continuity与对应高阶能力如Perspective Taking、Conservation几乎零相关。人类认知发展是下层搭积木,上层盖高楼,层层递进;

模型现状是高楼直接悬空,缺乏发育链条支撑。这种能力间的断裂意味着任何基础认知的扰动,都可能让整个「智能大厦」瞬间散架。

Finding 3:核心知识在更多任务上管用


统计发现,除了Perspective和 Intuitive Physics,10项核心能力得分与26个公开基准(除了偏向检验OCR能力的ChartQA)强正相关。

换句话说:核心知识越好,高层任务越稳。

而作为人类高级推理的基础Perspective和Intuitive Physics能力,在基准测试评估结果中展现的低相关性,与我们之前在关系矩阵中观察到的结果一致,正是核心知识缺陷的体现。

Finding 4:坏消息——参数多目前并不能「长出」核心知识


把219个模型从1B拉到110B,低阶能力曲线几乎一条水平线;perspective taking甚至随规模下降。

过往「大力出奇迹」的经验,在核心知识面前直接失灵。一个尚未解决却又可能帮助构建世界模型的关键课题是从「如何scale」变成「如何scale出core-knowledge」。


Finding 5:规模越大,捷径越香

Concept Hacking结果显示:大模型在孪生题上的表现相对小模型整体并无提升,甚至有些更加糟糕,说明scaling无法解决在核心知识问题上的「捷径依赖」。

直观感受:模型不是「长大变聪明」,而是长大变滑头。

通过定量分析发现,模型可以分为四类:

    核心知识型控制题和操作题都答对(接近人类,但数量极少)

    捷径依赖型控制题对,操作题错(最常见,包括GPT-4o等明星模型)

    核心缺陷型控制题就答错,操作题表现无意义

    盲猜型两题都靠运气


研究启示
认知指令可带来短期提升


推理增强也救不了(10/12 任务无提升):问题不在「用没用好」,而在「底子有没有」,「预训练缺失」仍是最大嫌疑。

有趣的是,团队发现认知指令提示——直接告诉模型「这是perspective taking任务」等概念描述,可瞬间带来6%的性能提升,表明模型内部可能已经分布式地存储了相关知识,但缺乏有效的检索和调用机制。

然而,这种方法在实际应用中局限性明显,因为现实场景中模型不太可能获得如此明确的概念指导。

更令人担忧的是,这种核心知识缺陷可能在关键应用中带来风险:比如自动驾驶中对遮挡物体的理解偏差,或者机器人在复杂场景下的物理常识判断失误。


重新思考AI发展路径


从「写诗作画」到「常识翻车」,这项研究再次提醒我们:真正的智能,不只是参数规模,更是对世界最朴素、最基础的理解。

当我们惊叹于大模型在高阶任务上的神奇表现时,是否忽略了连三岁孩子都懂的常识?忽略了正在悄悄放大的低阶核心知识空洞?

规模、推理、提示,都只是裱糊匠——地基没打好,楼越高越危险。

或许,这正是我们重新思考AI发展路径的契机:不是一味追求更大、更强,而是回到最初——那些让人类智能如此稳健可靠的核心认知能力。

参考资料:
https://arxiv.org/pdf/2410.10855


内容中包含的图片若涉及版权问题,请及时与我们联系删除

Fish AI Reader

Fish AI Reader

AI辅助创作,多种专业模板,深度分析,高质量内容生成。从观点提取到深度思考,FishAI为您提供全方位的创作支持。新版本引入自定义参数,让您的创作更加个性化和精准。

FishAI

FishAI

鱼阅,AI 时代的下一个智能信息助手,助你摆脱信息焦虑

联系邮箱 441953276@qq.com

相关标签

AI模型 核心知识 常识推理 世界模型 概念黑客
相关文章