PaperAgent 05月08日 15:22
给MCP加上RAG,工具准确率提升200%,起飞~
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_guoji1.html

 

本文介绍了RAG-MCP框架,旨在解决大型语言模型(LLM)在利用外部工具时面临的提示膨胀和选择复杂性问题。RAG-MCP通过检索增强生成技术,将工具描述存储在外部向量索引中,并在查询时动态检索相关工具描述,而非一次性将所有工具信息提供给LLM。实验结果表明,RAG-MCP在工具选择准确性方面显著优于传统方法,同时有效减少了提示大小和认知负担,提高了资源效率和多轮对话的鲁棒性。

🔑RAG-MCP框架通过检索增强生成技术,动态检索与用户任务最相关的工具描述,避免了将所有工具描述一次性提供给LLM造成的提示膨胀问题。

🔍RAG-MCP框架包含三个核心步骤:检索(使用轻量级LLM编码用户任务并在MCP索引中进行语义搜索)、验证(测试检索到的MCP的兼容性)和调用(将最佳MCP描述注入LLM提示,执行任务)。

📊实验结果表明,RAG-MCP在工具选择准确性上显著优于基线方法,达到了43.13%,同时显著减少了提示中使用的token数量,平均为1084个token,而“空白条件”方法需要2133.84个token。

🔄RAG-MCP框架提高了多轮对话的鲁棒性,因为LLM无需重复包含所有MCP提示,RAG-MCP的检索器可以动态处理工具回忆,释放上下文空间用于任务特定推理。

2025-05-07 18:17 湖北

大型语言模型(LLMs)在有效利用越来越多的外部工具(如模型上下文协议(MCP)所定义的工具)方面存在困难,这是由于提示膨胀和选择复杂性造成的。因此引入了RAG-MCP,这是一个检索增强生成框架,通过卸载工具发现来克服这一挑战。
提示膨胀与 MCP 压力测试

RAG-MCP 框架

    检索(Retrieval):使用轻量级LLM(如Qwen)对用户任务描述进行编码,并在MCP索引中执行语义搜索,返回与任务最相似的前k个候选工具。

    验证(Validation):对每个检索到的MCP,生成少量示例查询并测试其响应,以确保其基本兼容性(可选步骤)。

    调用(Invocation):仅将最佳MCP的描述(包括工具使用参数)注入LLM提示中,LLM随后通过函数调用接口执行任务。

框架优势

三步流程图

    用户任务输入:用户的自然语言任务被编码并提交给检索器。

    检索器选择和验证MCP:检索器在MCP索引中搜索,按语义相似性对候选工具进行排序,并通过合成示例测试每个工具的兼容性(可选)。

    LLM执行任务:LLM仅接收选定MCP的描述和参数,并通过函数调用接口执行任务。

实验结果
更多信息:《动手设计AI Agents:CrewAI版》、《高级RAG之36技》、新技术实战:中文Lazy-GraphRAG/Manus+MCP/GRPO+Agent、大模型日报/月报、最新技术热点追踪解读(GPT4-o/数字人/MCP/Gemini 2.5 Pro)
    https://arxiv.org/pdf/2505.03275RAG-MCP: Mitigating Prompt Bloat in LLM Tool Selection via Retrieval-Augmented Generation

    推荐阅读


      欢迎关注我的公众号“PaperAgent”,每天一篇大模型(LLM)文章来锻炼我们的思维,简单的例子,不简单的方法,提升自己。

      阅读原文

      跳转微信打开

      Fish AI Reader

      Fish AI Reader

      AI辅助创作,多种专业模板,深度分析,高质量内容生成。从观点提取到深度思考,FishAI为您提供全方位的创作支持。新版本引入自定义参数,让您的创作更加个性化和精准。

      FishAI

      FishAI

      鱼阅,AI 时代的下一个智能信息助手,助你摆脱信息焦虑

      联系邮箱 441953276@qq.com

      相关标签

      RAG-MCP LLM 工具选择 检索增强生成 提示膨胀
      相关文章