PaperAgent 05月14日 22:58
给MCP加上RAG,工具准确率提升200%,起飞~
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_guoji1.html

 

本文介绍了RAG-MCP框架,旨在解决大型语言模型(LLMs)在利用外部工具时面临的提示膨胀和选择复杂性问题。RAG-MCP通过检索增强生成技术,将工具描述存储在外部向量索引中,并在查询时动态检索相关工具描述,避免了一次性提供所有工具描述造成的提示过长和模型认知负担。实验结果表明,RAG-MCP在工具选择准确性上显著优于传统方法,并有效减少了提示大小,提高了资源效率和多轮对话鲁棒性。

🔍RAG-MCP框架通过检索增强生成(RAG)技术,解决了大型语言模型在工具选择时面临的提示膨胀问题。它将工具描述存储在外部向量索引中,并在查询时动态检索与用户任务最相关的工具描述,而非一次性提供所有工具描述。

✅RAG-MCP框架包含三个核心步骤:首先,用户提交自然语言任务,系统对其进行编码;其次,检索器在MCP索引中搜索并验证候选工具的兼容性;最后,LLM仅接收选定MCP的描述和参数,并通过函数调用接口执行任务。

📊实验结果表明,RAG-MCP在工具选择的准确性上显著优于基线方法,达到了43.13%,同时显著减少了提示中使用的token数量,平均为1084个token,相比之下,“空白条件”方法需要2133.84个token。

2025-05-07 18:17 湖北

大型语言模型(LLMs)在有效利用越来越多的外部工具(如模型上下文协议(MCP)所定义的工具)方面存在困难,这是由于提示膨胀和选择复杂性造成的。因此引入了RAG-MCP,这是一个检索增强生成框架,通过卸载工具发现来克服这一挑战。
提示膨胀与 MCP 压力测试

RAG-MCP 框架

    检索(Retrieval):使用轻量级LLM(如Qwen)对用户任务描述进行编码,并在MCP索引中执行语义搜索,返回与任务最相似的前k个候选工具。

    验证(Validation):对每个检索到的MCP,生成少量示例查询并测试其响应,以确保其基本兼容性(可选步骤)。

    调用(Invocation):仅将最佳MCP的描述(包括工具使用参数)注入LLM提示中,LLM随后通过函数调用接口执行任务。

框架优势

三步流程图

    用户任务输入:用户的自然语言任务被编码并提交给检索器。

    检索器选择和验证MCP:检索器在MCP索引中搜索,按语义相似性对候选工具进行排序,并通过合成示例测试每个工具的兼容性(可选)。

    LLM执行任务:LLM仅接收选定MCP的描述和参数,并通过函数调用接口执行任务。

实验结果
更多信息:《动手设计AI Agents:CrewAI版》、《高级RAG之36技》、新技术实战:中文Lazy-GraphRAG/Manus+MCP/GRPO+Agent、大模型日报/月报、最新技术热点追踪解读(GPT4-o/数字人/MCP/Gemini 2.5 Pro)
    https://arxiv.org/pdf/2505.03275RAG-MCP: Mitigating Prompt Bloat in LLM Tool Selection via Retrieval-Augmented Generation

    推荐阅读


      欢迎关注我的公众号“PaperAgent”,每天一篇大模型(LLM)文章来锻炼我们的思维,简单的例子,不简单的方法,提升自己。

      阅读原文

      跳转微信打开

      Fish AI Reader

      Fish AI Reader

      AI辅助创作,多种专业模板,深度分析,高质量内容生成。从观点提取到深度思考,FishAI为您提供全方位的创作支持。新版本引入自定义参数,让您的创作更加个性化和精准。

      FishAI

      FishAI

      鱼阅,AI 时代的下一个智能信息助手,助你摆脱信息焦虑

      联系邮箱 441953276@qq.com

      相关标签

      RAG-MCP LLM 工具选择 检索增强生成 提示膨胀
      相关文章