Cnbeta 14小时前
回应撤离中国市场原因 Manus首度披露技术侧经验教训
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_guoji1.html

 

Manus联合创始人季逸超分享了在Agent研发与训练方面的技术经验,强调了上下文工程的重要性。Manus选择押注上下文,通过构建“记忆”与流程实现产品迭代,而非训练模型。具体策略包括侧重KV-Cache命中率、不动态添加工具以及利用文件系统承载持久上下文,旨在节省底层模型训练成本,提高训练效率。这一策略源于过往从头训练模型的失败经验,认识到上下文学习的价值。尽管Manus在效率提升上有所突破,但与依赖专用模型端到端训练的ChatGPT Agent相比,在处理复杂任务的连贯性和准确性上仍有差距。面对Agent行业的同质化、商业模式不明及成本高企等挑战,Manus需持续优化技术,探索差异化发展路径。

💡 **聚焦上下文工程,实现产品快速迭代:** Manus将技术重心放在上下文工程上,通过构建“记忆”与流程来加速产品迭代。这包括押注上下文、不再训练模型、强调KV-Cache命中率、不动态添加工具以及利用文件系统承载持久上下文,核心目标是节省底层模型训练成本,提高整体训练效率。

📉 **汲取过往教训,避免重复投入:** 季逸超分享了创业公司Peak Labs的经验,当时团队从头训练模型,却很快被OpenAI的GPT-3和Google的Flan-T5等模型超越,意识到从头研发底层模型并非最优解。因此,Manus选择利用开源基础模型训练端到端Agent,或基于前沿模型上下文学习能力构建Agent,避免了在底层模型上的巨额投入。

🚀 **KV-Cache命中率是推理效率核心:** Manus高度重视KV-Cache(Key-Value Cache)的命中率,因为高命中率能够显著提高推理效率,优化资源利用,并降低计算成本。KV-Cache被认为是Transformer模型推理阶段的关键,其优化直接关系到Agent的性能表现。

🌐 **长上下文是AI产品个性化交互的关键:** 引用月之暗面Kimi创始人杨植麟的观点,Manus认为Ai-native产品的终极价值在于提供个性化交互,而无损长上下文是实现这一目标的关键。用户与模型的交互历史是最好的个性化过程,长上下文技术能更好地记录和利用这些历史信息。

⚠️ **面临行业挑战与竞争:** 尽管Manus在上下文工程方面有所创新,但与OpenAI等大厂基于专用模型进行端到端训练的Agent相比,Manus在处理复杂任务的连贯性和准确性上仍有不足。此外,Agent行业普遍存在同质化、商业模式不清晰、成本高企等问题,Manus需要在激烈的市场竞争中探索差异化发展路径。

Manus近期撤出中国市场、清空国内社交账号内容,全力转战海外市场,官方解释原因主要基于经营效率的调整及国际化布局。北京时间7月19日,Manus联合创始人季逸超发布技术博客,首度从技术角度做出回应,总结创业以来在Agent研发与训练方面的经验教训。


单从技术层面来看,季逸超表示Manus会侧重押注上下文(Context)工程,借助构造“记忆”与流程实现产品快速迭代。主要包括押注上下文、不再训练模型,强调KV-Cache(Key-Value Cache,一种缓存机制)命中率意义,不动态添加工具,以及用文件系统承载持久上下文等方面。核心即节省底层模型训练成本,侧重训练效率的提高。

上下文在大模型中通常指模型在处理任务或生成输出内容时所参考的信息集合,能够帮助模型增强理解能力、提高任务性能、增强输出连贯性。此前月之暗面Kimi创始人杨植麟在采访中强调过上下文的重要性,他称,Ai-native(由AI定义产品形态)产品的终极价值在于提供个性化交互,而无损长上下文(LosslessLongContext)是达成这一目标的关键。他判断模型的微调长期来看不应存在,用户与模型的交互历史就是最好的个性化过程,而长上下文技术能更好地记录和利用这些交互历史。

另外,KV-Cache命中率至关重要,主要是因为高命中率可以提高推理效率,优化资源利用率,降低计算成本。也正基于此,KV-Cache常被称为Transformer模型推理阶段的效率核心。

选择从上述各方面提高训练效率,而非从底层模型开始投入,是季逸超过往多年总结的教训。他称,创业上一家公司(Peak Labs)时,团队决定从头开始为开放信息提取和语义搜索训练模型,但之后不久,OpenAI的GPT-3与Google的Flan-T5模型出现了,团队从头研发的内部模型一夜之间变得无关紧要。“讽刺的是,这些模型标志着上下文学习的开始,以及一条全新的前进道路。”季逸超称。

基于此前教训,创业Manus后,团队不再投入基座模型研发,而是从使用开源基础模型训练端到端Agent,与基于前沿模型上下文学习能力构建Agent两个选项中进行选择。虽然Peak Labs的教训令Manus团队意识到上下文的重要性,但这并不容易,经历过四次Agent框架调整才实现局部最优解。

但需注意的是,该策略仍存在局限,尤其在面对类似OpenAI刚发布的ChatGPT Agent时。核心原因在于ChatGPT Agent依托OpenAI专用模型,采用端到端训练,可以更好地处理复杂任务,而Manus虽然可以提高效率,但仍依赖外部多模型组合与工程优化,在任务执行连贯性与准确性上稍逊一筹。

另外,在Manus转战国际市场的节点,OpenAI凭借底层模型优势将Agent行业带入拐点,吸引更多开发者与用户至大厂平台,虽然创业公司在垂直领域具备生存空间,但仍不可避免地面临市场份额被争夺的挑战。尤其在当下Agent类产品存在同质化严重、商业模式不明、成本高企等困境时,上下文工程等方面的亮点不足以让创业公司跳脱出来,团队仍需持续优化技术策略,探索差异化发展路径。

Fish AI Reader

Fish AI Reader

AI辅助创作,多种专业模板,深度分析,高质量内容生成。从观点提取到深度思考,FishAI为您提供全方位的创作支持。新版本引入自定义参数,让您的创作更加个性化和精准。

FishAI

FishAI

鱼阅,AI 时代的下一个智能信息助手,助你摆脱信息焦虑

联系邮箱 441953276@qq.com

相关标签

Manus Agent 上下文工程 AI研发 KV-Cache
相关文章