机器之心 19小时前
复旦大学/上海创智学院邱锡鹏:Context Scaling,通往AGI的下一幕
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_guoji1.html

 

本文介绍了复旦大学邱锡鹏教授提出的Context Scaling,一种旨在让AI真正理解并适应复杂、多变、模糊情境的新路径。它区别于参数规模、数据量等扩展路径,核心在于提升AI对情境的理解能力,从而在模糊世界中做出合理判断。文章阐述了Context Scaling的内涵、技术支柱以及面临的挑战,并强调其并非替代现有Scaling路线,而是对其补充与整合,有望成为通往AGI的关键一步。

🧠 **Context Scaling的核心理念**:聚焦于提升AI对复杂情境的理解和适应能力,而非单纯增大模型规模或数据量。这包括理解时间、空间、参与者状态等多种信息,特别是捕获人类难以清晰表述的“暗知识”。

💡 **“暗知识”的捕获**:强调AI需具备理解社交暗示、文化差异、情境判断和动态适应的能力,例如理解“不要”在不同语境下的含义,从而实现更智能的决策。

⚙️ **三大技术支柱**:Context Scaling依赖于强交互性(从交互中学习)、具身性(具备主体性)、拟人化(类人的情感共鸣和反馈能力),以实现对复杂情境的深度理解。

🚧 **面临的挑战**:包括模型结构的突破(例如现有Transformer架构的局限性)、学习范式的转变(从监督学习到交互式学习)以及复杂情境的定义与构建(大规模情境数据的生成)。

🚀 **通往AGI的关键一步**:Context Scaling将推理增强、多模态融合、强化学习等技术统一在“情境理解”这一核心目标之下,有望成为大模型发展的下一幕,并为实现AGI奠定基础。

原创 机器之心 2025-06-15 12:41 北京

真正的智能在于理解任务的模糊与复杂,Context Scaling是通向AGI的关键一步。

机器之心原创

作者:闻菲

真正的智能在于理解任务的模糊与复杂,Context Scaling 是通向 AGI 的关键一步。


2024 年底,Ilya Sutskever 断言「我们所知的预训练时代即将终结」,让整个人工智能领域陷入对 Scaling What 的集体追问之中。


新的思路不断涌现:推理时扩展(Test-Time Scaling)让 OpenAI 的 o 系列在数学推理上大放异彩,DeepSeek-R1 通过 GRPO 替代 PPO 实现了强化学习的突破,强化学习 Self-play + LLM 让 AI 在游戏和代码生成中展现惊人能力,Agent 化路径则催生了能够操作浏览器、调用工具的新一代智能助理…… 每一条路都在探寻可能的下一个跃迁。


在这场技术探讨中,复旦大学 / 上海创智学院的邱锡鹏教授提出了一个耐人寻味的新路径 ——Context Scaling。与参数规模、数据量、推理计算等扩展路径不同,Context Scaling 的核心,不在于更大,而在于更「深」:如何让 AI 真正理解并适应复杂、多变、模糊的情境(Context)。


在与机器之心的最新一次对谈中,邱锡鹏教授系统阐述了他对 AI 发展的洞察:从预训练扩展到后训练优化,再到情境智能(Contextual Intelligence)的深层转变。



AGI 三幕演进

从参数堆叠到情境理解


邱锡鹏教授将大模型的演进总结为一个核心公式:



大模型的核心是提升给定情境(Context)条件下模型决策(Decision)的准确性,需要从大量数据中学习模型参数 θ。


第一幕是模型规模化的胜利。 通过堆叠数据与参数,将已发现且可描述的知识「压缩」,找了很好的模型参数 θ,实现了 LLM 在通用任务上的跃升。这一阶段诞生了 ChatGPT、MOSS、Qwen 等代表性的通用模型。但随着数据见顶、参数规模收益递减,业界普遍意识到:简单加法已无以为继。


第二幕则是后训练优化的探索,包括推理增强、知识具象化等方向,这一阶段的核心目标是通过引入类人的问题求解过程继续提升大模型解决复杂问题的决策能力(Decision)。强化学习、工具调用、思维链、多模态成为关键词,代表性成果包括 GPT o1/o3、DeepSeek-R1、AnyGPT 等。


在第一幕和第二幕发展到一定阶段,如何定义情境(Context)就成为继续提升模型能力的关键因素,也是大模型落地应用中最具挑战的一环。很多模型无法正确决策的主要原因是对任务或者情境的描述不够。目前,当遇到难以描述或难以定义的问题或任务时,现有方法都显露出局限性。例如,如何让 AI 理解一个微妙的社交暗示?如何在文化差异巨大的环境中做出恰当判断?如何处理那些无法用明确规则定义的复杂交互?这些「暗知识」构成了人类智能的核心,却是当前技术的盲区。


接下来的第三幕 Context Scaling,旨在解决上述问题,并由此实现「情境智能」。这一阶段关注的,让 AI 能够理解并适应足够丰富、真实、复杂、多变的情境信息,从而在模糊不清的世界中作出合情合理的判断。



Context 深层内涵

捕获难以描述的「暗知识」


在邱锡鹏教授的定义中,Context 远非当前大模型所使用的「上下文窗口」那么简单,它是一种多维、动态、跨模态的信息结构,其中可能包含时间信息、空间信息、参与者状态、目标意图,甚至是未明说但语境暗示的文化规则与人际默契。


最关键的,是 Context Scaling 对「暗知识」的捕获能力。所谓暗知识(Tacit Knowledge),指的是那些人类习得但难以清晰表述的能力,包括但不限于:



举例来说:当一个人说「不要」,只有身处完整情境,AI 才能判断这句话是真正的拒绝、玩笑,还是一种反向请求。在多模态、多轮对话、现实互动任务中,这种差别往往决定智能的成败。


正是这些难以言述的隐性知识,构成了人类智能的底色。而 AI 若能通过 Context 捕获这些结构模糊、路径多变的信息,将实现真正意义上的智能突破。


同时,这也是对 AI 安全发展的核心考量。一个耳熟能详的例子是「回形针悖论」—— 当大模型仅仅按照生产更多回形针的目标行事时,可能会不择手段地获取资源,最终威胁人类社会。Context Scaling 通过让 AI 理解复杂的社会情境和隐含价值观,能够在没有明确禁令的情况下,基于对情境的深度理解,做出符合人类价值观的判断。


三大技术支柱

交互、具身、拟人化


邱锡鹏教授表示,Context Scaling 之所以能成为一个独立的技术路径,源于它拥有独特的三项能力支柱:


1. 强交互性(Strong Interactivity)


情境智能的本质,在于「从交互中学习」,这包括两个层面,一是与环境的强化学习交互,AI 需要在复杂环境中行动、观察反馈、调整策略,但 Context Scaling 要求更深层的交互 —— 不仅要学会如何行动,更要理解为什么这样行动。


二是与人类的多模态协作,包括语言澄清、任务讨论、情绪共鸣等。当前 Gemini Deep Research 等助理已经能够询问用户的具体需求,但 Context Scaling 要求 AI 能够理解用户的情绪状态、文化背景,甚至未说出口的期望。只有能不断从互动中汲取信息的系统,才具备面对复杂情境的应变能力。


2. 具身性(Embodiment)


AI 要能交互,要理解所处世界,意味着智能体必须具备「主体性」,这样才能感知、行动、记忆与学习。但这并不意味着必须具备现实物理世界的完整身体,虚拟环境中的持续任务、AR 场景中的决策代理,也是对这一理念的试验场。


3. 拟人化(Anthropomorphizing)


这是 Context Scaling 独有的特征 ——AI 需要具备类人的情感共鸣和反馈能力。这不是简单的情感模拟,而是对人类偏好和行为模式的深度理解,比如理解和回应人类的情绪状态,掌握复杂的人际交往规则,懂得何时保持距离、何时表达关心,以及具备文化敏感性,知晓在不同文化背景下调整交互方式和价值判断。


为了实现上述三点,Context Scaling 要求模型具备持续学习的能力。不同于传统的持续学习,情境智能的持续学习能力更强调在模型参数相对固定的情况下,通过 Context 的积累和更新,实现能力的持续提升。换句话说,是在使用过程中持续积累经验、调整策略。「这也更像是人类的成长与发展,在先天基因确定的情况下,通过后天学习以及不断适应新的环境,根据具体情境调整行为策略。」



要让 Contextual Intelligence 成为现实,技术上面临几大挑战:



邱锡鹏教授强调,Context Scaling 是并非替代其他 Scaling 路线,而是对其构成补充与整合。例如,Test-Time Scaling 关注输出阶段的计算效率,Context Scaling 关注输入的质量与结构,两者是正交互补的,更丰富的上下文信息能够为推理时计算提供更好的基础。


与 Agent 路径相比,Context Scaling 更多对任务定义层的重新设想,它强调的是智能体理解复杂情境的核心能力,这种能力可以通过各种 Agent 架构来实现,但其本身超越了具体的工具使用和任务执行。


Context Scaling 也为强化学习提供了新的环境定义,不再是简单的状态 - 动作 - 奖励循环,而是包含丰富情境信息的复杂交互空间。


通往 AGI 的关键一步


「在大模型时代,如果研究只是在已有路径上做微调,那将失去方向感。」邱锡鹏教授说:「研究者需要去定义那些 “大家都意识到但没人清晰表达” 的问题。」


在这场 Scaling What 的集体探索中,Context Scaling 将推理增强、多模态融合、强化学习等看似分散的技术路径统一在「情境理解」这一核心目标之下。智能的本质,也许就在于面对复杂世界时那份模糊中的准确、不确定中的判断、冲突中的协调。这个意义上,Context Scaling 不仅是大模型发展的下一幕,更可能是通向 AGI 的关键一步。



© THE END 

转载请联系本公众号获得授权

投稿或寻求报道:liyazhou@jiqizhixin.com

阅读原文

跳转微信打开

Fish AI Reader

Fish AI Reader

AI辅助创作,多种专业模板,深度分析,高质量内容生成。从观点提取到深度思考,FishAI为您提供全方位的创作支持。新版本引入自定义参数,让您的创作更加个性化和精准。

FishAI

FishAI

鱼阅,AI 时代的下一个智能信息助手,助你摆脱信息焦虑

联系邮箱 441953276@qq.com

相关标签

Context Scaling 情境智能 AGI 人工智能
相关文章