夕小瑶科技说 前天 15:17
Prompt、Context、Memory:一组漫画带你了解大模型交互的三段技术演进
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_guoji1.html

 

文章介绍了大模型当前普遍存在的“有反应但无记忆”的局限性,并提出了名为MemOS(大模型记忆操作系统)的解决方案。MemOS旨在通过分层管理和调度记忆,赋予大模型真正的“自我状态”和持续学习能力。与Prompt工程和Context工程相比,MemOS强调记忆的抽取、组织、检索、调度和可演化性,致力于让AI助理能够记住用户目标、追踪任务状态、理解用户偏好,并实现跨模型记忆迁移,从而使大模型从“静态生成器”进化为“数字同事”和“数字助理”,实现与用户的长期共同成长。

💡 MemOS是解决当前大模型“反应迅速但无记忆”问题的关键技术,它是一个面向大模型记忆管理的开源框架,旨在赋予AI持续的认知能力,让模型能够“记住、学进、更懂你”。

🔄 文章对比了Prompt工程(一次性引导)、Context工程(临时记忆拼接)和MemOS(长期记忆系统)。Prompt和Context在提升短期交互和任务执行方面有一定作用,但MemOS通过分层记忆管理,解决了信息碎片化、状态无法累积和经验无法迭代的瓶颈,是AI走向“智能体”的关键一步。

🧩 MemOS的核心功能包括记忆提取与组织(以图结构组织关键信息)、分层建模与调度(管理不同类型记忆)、记忆可演化(根据历史反思强化模型能力)以及记忆可转移(模型间共享记忆),为AI提供了个性化和持续性的交互基础。

🚀 MemOS的系统架构遵循传统操作系统的分层理念,分为接口与应用层、记忆调度控制层和存储与基础设施层。其核心创新在于“记忆调度(Memory Scheduling)”范式,通过预测和提前加载记忆片段,显著降低响应延迟并优化推理效率。

🌟 MemOS的出现标志着大模型从“静态对话”向“动态认知”的转变,通过持久化的记忆能力,使AI能够真正理解用户、预测需求并与用户一同成长,是构建下一代智能应用的重要路径。

2025-07-15 13:16 北京

你说:“帮我列下今天的会议日程。”

它迅速回复:“9 点产品部,11 点市场部,下午 2 点财务汇报。”——完美。

你接着说:“那顺便把上次年会的讨论要点也整理一下吧。”

它却停顿了片刻,回复道:“很抱歉,我找不到相关记录。”

这是当下所有大模型的共性问题:反应迅速,却没有记忆;任务执行高效,却无法延续认知。

每次对话都像“第一次见你”,每轮任务都要从头讲起,它可以生成内容,却无法积累状态,也无法进行模型迭代和学习;可以理解你这一次,却无法记住你每一次。

我们需要的,不只是会说话的模型,而是能“记得住、学得进、变得更懂你”的模型。

这,正是 MemOS(大模型记忆操作系统)想要带来的根本改变。

01| 提示词工程:大模型的原始操作方式

在 GPT-3 开始火起来的时候,“提示词工程(Prompt Engineering)”成了显学。

什么叫提示词工程?简单说,就是用人类设计的自然语言“引导”模型做事:

    “你是一名律师,请帮我写一份合同”

    “请总结这段文本的核心观点”

    “根据下面的聊天内容生成一个回复”

这种方法的确打开了大模型的基本应用能力,但也存在明显问题:

每次交互都像“第一次见你”。没有记忆、没有状态、没有积累,重复一遍又一遍的撰写相似的输入。

02| 上下文工程:窗口内的聪明,窗口外的健忘

近期,Karpathy 大神的一个 Post 带火了 Context Engineering

为了让模型“看起来更聪明”,我们进入了 Context Engineering(上下文工程)的时代。

这一阶段的重点,不再只是写好一条 prompt,而是通过系统性设计,让大模型在任务执行中拥有更完整的背景感知能力

常见的上下文工程策略包括:

    拼接历史对话:将近期交互内容拼入上下文,保持会话连贯;

    系统指令前置与结构统一:通过“系统提示 + 用户输入 + 输出模板”格式化组织,明确行为规则;

    引入链式推理与任务分层:通过 step-by-step 提示、子任务拆解等方式,提升模型的任务完成能力;

    使用检索增强生成(RAG):引入动态文档/知识检索模块,扩展信息边界;

    调用外部工具/API:通过函数调用、插件等方式补齐感知和执行力;

    上下文压缩与剪枝:在 token 受限的前提下,筛选高价值内容、避免信息冗余。

这些实践在一定程度上提升了模型的对话连贯性与多轮任务能力,但仍存在较大瓶颈,包括:

    信息碎片化,管理无法精细:上下文工程没有机制区分什么信息该记、什么时候记、记到哪,怎么注入到合适的位置,任务越复杂越容易混乱。

    信息留不住,状态无法累积:上下文工程只能在临时窗口中拼接历史内容,模型“每次见你都像第一次”,对任务背景、用户偏好,缺乏良好的状态记忆。

    信息用不好,经验无法迭代:模型没有反思与动态对齐能力,只是任务执行器,无法从失败或历史中吸取经验,来帮助模型进行迭代。

因此,上下文工程是模型增强的中期过渡技术,下一阶段的关键是:引入可调度、可学习的记忆机制——这正是 MemOS 的核心使命。

03|MemOS:让大模型“记住你”的记忆操作系统

如果说 Prompt 是大模型的“原始命令”,Context 是它的“临时记忆”,

那 MemOS 就是它的 长期记忆系统,是真正让 AI 拥有“自我状态”的基础。

MemOS 的基本思路是对记忆进行分层管理和调度,是忆立方记忆分层大模型的落地演进

MemOS 提供什么?

    记忆提取与组织:自动抽取你在交互关键信息,以图结构组织记忆,支持跨轮关联

    记忆分层建模与调度:对不同类型的记忆进行分层管理与调度,实现灵活预测

    记忆可演化:根据历史的记忆进行反思,强化模型特定能力,提升模型性能

    记忆可转移:不同模型间共享记忆,让“小助手”也有“大脑袋”

04| 用 MemOS,让 AI 更懂你!

我们相信,大模型的未来不是一个“回答器”,而是一个“认知器”。

而没有持续性认知记忆的模型,都只是一次次“短暂的聪明”。

当你用 MemOS 去加载一个 AI 助理,它将能够:

✅ 记住你过去交代的长期目标

✅ 持续追踪任务状态与执行反馈

✅ 明确你在不同身份下的角色偏好

✅ 在你开口之前,预判你想做什么

05|MemOS-Preview 版本已经开源,上线 3 天 1000+ Star,600+ 用户群

在大模型逐渐走向多轮任务与智能体时代时,MemOS 提出了一个核心命题:

大模型,不应只拥有语言能力,还应拥有可调度且可进化的记忆能力。

MemOS 是一套面向大模型记忆管理的开源框架,Preview 版本已经完成核心模块原型构建,包括:

    记忆提取(Memory Extraction):自动从多轮对话中识别出任务目标、事件、偏好等关键信息

    记忆组织(Memory Structuring):将提取的信息按图结构或层次树组织,支持跨轮链接

    记忆检索(Memory Query):支持通过关键词、语义标签、时间索引等方式调用历史记忆片段

    记忆调度Memory Scheduling):根据用户的对话历史、偏好,将最合适的记忆放到最合适的位置

MemOS 通过标准化的 MemCube 记忆单元,将明文、激活状态和参数记忆统一在同一个框架里进行调度、融合、归档和权限管理。简单来说,模型不再只是“看完即忘”,而是拥有了持续进化和自我更新的能力。在行业看来,这种面向 AI 长期记忆的操作系统思路,或许会重塑智能系统的应用边界——让大模型真正从“静态生成器”,变成可以陪伴用户长期成长的“数字同事”和“数字助理”

系统架构和核心创新

在技术架构上,MemOS 参考了传统操作系统的分层理念,同时融合了忆立方(Memory³)大模型在“记忆分层管理”方面的关键技术。系统整体划分为三大核心层次:接口与应用层、记忆调度控制层,以及存储与基础设施层,构建起从前端调用到底层持久化的一体化记忆管理框架。

接口与应用层,MemOS 提供了统一、易扩展的 Memory API,开发者可通过标准接口便捷地进行记忆的新增、修改、删除、调用等操作。配合上下文工程,MemOS 让模型能够更轻松地接入多轮会话记忆、跨任务状态追踪用户偏好持久化管理等能力,显著提升大模型在复杂交互中的个性化与持续性表现。

记忆调度与管理层,MemOS 引入了一种全新的调度机制 —— 记忆调度(Memory Scheduling)范式。该机制支持基于上下文的“下一场景预测”(Next-Scene Prediction),可以在模型尚未发起调用之前,提前加载可能需要的记忆内容,从而显著降低响应延迟、优化推理效率。

图 1.  记忆调度的核心思路

如上图 1 所示,MemOS 能够在不同轮次(Round)、会话(Session)甚至多智能体(Agent)协同流程中,异步预测和准备未来可能涉及的记忆片段。其核心机制是:在应用流程的关键节点部署触发器(Trigger),自动收集任务过程中的记忆线索与需求。所有触发器采集的信息将被统一送入调度监控队列(Monitoring Queue),由调度执行器(Scheduling Executor)进行消费处理。

调度器会根据调用频率、上下文相关性等策略,优先将高价值记忆片段提前加载到 MemCube 中的指定位置,包括模型的 KV Cache、明文缓存区或其他中间态存储区。这一设计显著提高了对关键记忆的“即取即用”能力,为模型提供了更快、更准、更持续的认知支撑

而在记忆存储与基础设施层,MemOS 通过标准化的 MemCube 封装,将明文记忆、激活记忆和参数记忆三种形态有机整合。它支持多种持久化存储方式,包括 Graph 数据库、向量数据库等,并具备跨模型的记忆迁移与复用能力

整体来看,MemOS 不仅在技术框架上实现了对 AI 记忆的结构化、系统化管理,也为未来构建可共享、可迁移、可学习的 AI 记忆生态奠定了基础。

🧑‍💻 欢迎加入开发者社群,一起构建 下一代面向记忆的应用研发之路~

🌐 项目官网:https://memos.openmem.net/

💻 GitHub:https://github.com/MemTensor/MemOS

06| 提示词工程、上下文工程、MemOS 的完整对比

尽管 Prompt Engineering 和 Context Engineering 作为大模型交互不同发展阶段的典型代表,但它们都有一个共通的局限:缺乏真正意义上的“状态感”与“个性化”

Prompt 是一次性的指令,你说一句,它答一句;

Context 是短期的记忆拼接,它能理解当下,但无法延续过往。

而 MemOS 的出现,标志着大模型从“静态对话”迈向“动态认知”的关键转折。通过持久化的记忆抽取、结构化组织与跨轮调用,模型不再只是被动响应,而能主动理解你是谁、正在做什么、过去做过什么、未来可能需要什么

正如人类的智能不仅来自于感知和反应,更来自于“能记得住并据此行动”,

MemOS 是让大模型具备“成长性”与“适应性”的技术基础。

因此,MemOS 所倡导的记忆系统,不是替代 Prompt 和 Context,而是与它们形成演进式协同

    用 Prompt 启动模型

    用 Context 优化交互

    用 Memory 持续积累、管理与学习

这才是下一代 AI 应用,真正走向“智能体”的必要路径。

07| 结语

你可以通过提示词工程(Prompt)让模型执行任务,

你也可以通过上下文工程(Context)让模型更聪明。

但只有拥有记忆(MemOS),它才真正认识你、理解你、陪伴你,并且与你一起成长。

智能始于记忆,更成于记忆!

MemOS,让 AI 不止回应,还更懂你!

阅读原文

跳转微信打开

Fish AI Reader

Fish AI Reader

AI辅助创作,多种专业模板,深度分析,高质量内容生成。从观点提取到深度思考,FishAI为您提供全方位的创作支持。新版本引入自定义参数,让您的创作更加个性化和精准。

FishAI

FishAI

鱼阅,AI 时代的下一个智能信息助手,助你摆脱信息焦虑

联系邮箱 441953276@qq.com

相关标签

MemOS 大模型 记忆操作系统 AI助理 持续学习
相关文章