掘金 人工智能 06月18日 10:40
AI界激辩:多智能体系统是神器还是陷阱?LangGraph团队揭示构建关键
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_guoji1.html

 

本文深入探讨了多智能体系统的构建策略,聚焦于Cognition和Anthropic两家公司在这一领域的实践。文章指出,多智能体系统的成功与否,关键在于“上下文工程”和任务的“读写”属性。通过分析Anthropic的成功案例,文章强调了精准的上下文构建、任务拆解和系统工程的重要性。文章还总结了多智能体系统适用的任务类型和落地时需要克服的挑战,为构建高效、稳定的多智能体系统提供了宝贵的参考。

🧐 上下文工程是多智能体系统的核心:不同于传统的Prompt Engineering,上下文工程更关注系统级的动态上下文构建,强调为每个Agent构建精准、独立、可持续的任务背景。Anthropic的实践证明,长对话管理、任务描述精准化是关键。

✍️ “读”任务更适合多智能体,“写”任务需谨慎:读任务(如信息搜索)天然适合并行执行,而写任务(如代码生成)则因需保持结构统一,难以拆分并行,容易产生冲突。Anthropic采用主智能体统一汇总的方式,避免了写作任务的碎片化。

🚧 工程落地面临三大挑战:多智能体系统在持久性、可观测性和可评估性方面面临挑战。为了稳定运行,需要LangGraph的错误续跑机制、LangSmith的全链路追踪以及LLM-as-a-Judge +人工评估的组合,以实现系统级的Agent评估链条。

✅ 多智能体系统的适用场景:多智能体系统适合高价值任务、广度优先探索和超长上下文任务。而强依赖上下文同步、实时响应以及子任务依赖复杂的场景,单体结构可能更高效。

导语:当 Cognition 高呼 “Don’t Build Multi-Agents”,Anthropic 却用成功案例回应。两篇爆文看似对立,却指向了构建多智能体系统的同一真相——胜负的分水岭,从来不是 Agent 数量,而是“上下文工程”与“读写结构”。如果你正考虑构建 Agent 系统,这可能是你最该读的一篇文章。

01 技术交锋:分歧中的隐藏共识

上周,AI 圈出现两篇爆文引发热议:

尽管立场看似对立,两者却不约而同指出:要让多智能体系统稳定运行,有两个关键前提

    Context Engineering(上下文工程)是基础设施级能力多智能体更适合“读”任务而非“写”任务

02 生死线:Context Engineering

“再聪明的模型,若不知上下文,也无法做出正确判断。”—— Cognition 团队提出的核心观点

▍什么是上下文工程(Context Engineering)?

不同于传统的 Prompt Engineering,Context Engineering 更关注系统级的动态上下文构建。它强调:在复杂交互和多智能体协作中,如何为每个 Agent 构建精准、独立、可持续的任务背景,是系统能否稳定运行的关键。

▍实战中表现如何?

Anthropic 的实践佐证了这一点:

    长对话管理:对话可能长达数百轮,需要引入外部记忆与压缩机制,如在每阶段总结信息存储进记忆库、跨阶段切换时唤回关键信息。任务描述精准化:子智能体需要被明确告知目标、输出格式、所用工具、边界约束,否则容易重复劳动或遗漏重要内容。

▍底层能力支持

在我们看来,Agent 框架的核心不是功能丰富,而是给开发者“上下文的完全控制权”。

03 为什么“写”比“读”更难?

“行为背后是决策,冲突的决策会带来灾难。”—— Cognition 团队总结多 Agent 写作风险

▍读 vs 写,本质区别在哪?

▍Anthropic 的拆解方案

在其 Claude Research 系统中:

实验中发现,模糊的指令导致多个 Agent 重复搜索 2025 年半导体供应链,有效的任务拆解机制是防止资源浪费的关键

04 工程落地的三道坎:持久性、可观测、可评估

即使设计合理,Agent 系统要能稳定运行,还必须跨过三道“生产环境生死劫”:

挑战维度关键问题推荐方案
持久化执行Agent 是有状态的,一旦中断,代价高昂LangGraph 提供错误续跑机制
调试与可观测性多 Agent 决策不确定,难以复现 bug使用 LangSmith 进行全链路追踪
Agent 评估机制不能只靠主观观察LLM-as-a-Judge + 人工评估 组合,并支持 小样本评测 起步

LangSmith 已支持数据集管理、自动评分、人工标注队列等功能,构建系统级 Agent 评估链条已成可能。

05 哪些任务适合多智能体?Anthropic 的实战公式

根据 Anthropic 实验总结,多智能体系统适合以下三类任务:

而在以下场景中,多智能体反而不如单体结构高效:

没有通用最佳结构,只有最合适的架构决策。

结语:别被“智能体数量”迷惑,关键是上下文控制力

总结来看:


📣 参与讨论:你是否遇到过 Agent 协作失控的瞬间?留言聊聊你的避坑经验吧!

Fish AI Reader

Fish AI Reader

AI辅助创作,多种专业模板,深度分析,高质量内容生成。从观点提取到深度思考,FishAI为您提供全方位的创作支持。新版本引入自定义参数,让您的创作更加个性化和精准。

FishAI

FishAI

鱼阅,AI 时代的下一个智能信息助手,助你摆脱信息焦虑

联系邮箱 441953276@qq.com

相关标签

多智能体系统 上下文工程 Agent
相关文章