前言
本系列分享前七篇分别讲述了
- LangChain&LangGraph的核心原理LangChain接入大模型的基本方法LangChain核心概念——链LangChain记忆存储与多轮对话机器人搭建LangChain接入工具基本流程LangChain Agent API快速搭建智能体LangChain多智能体浏览器自动化
上篇文章分享了如何利用LangChain调用PlayWright工具函数搭建智能体实现浏览器自动化, 大家学习完成后基本掌握了LangChain编写大模型智能体调用外部工具函数的技巧。随着大模型技术的不断发展,借助MCP技术快速实现智能体已经成为当前智能体开发的首选方法,作为宇宙第一Agent开发框架,LangChain自然也具备与MCP服务器对接的强大功能,本期分享我们一起来学习LangChain接入MCP的完整实现流程。
本系列分享是笔者结合自己学习工作中使用LangChain&LangGraph经验倾心编写,力求帮助大家体系化快速掌握LangChain&LangGraph AI Agent智能体开发的技能!大家感兴趣可以关注笔者掘金账号和系列专栏。更可关注笔者同名微信公众号: 大模型真好玩, 每期分享涉及的代码均可在公众号私信: LangChain智能体开发获得。
一、MCP知识点回顾
MCP(全称是Model Context Protocol,模型上下文协议), 是由Claude母公司Anthropic于2024年11月正式提出。
MCP的核心作用是统一了Agent开发过程中大模型调用外部工具的技术实现流程,从而大幅提高了Agent开发效率。在MCP诞生前,大模型通过Function Calling技术与工具函数对接,不同的工具函数有不同的调用方式,要连接这些外部工具开发Agent就必须“每一把锁单独配一把钥匙”,开发工作非常繁琐。
而MCP的诞生,则统一了这些外部工具的调用流程,使得无论什么样的工具都可以借助MCP技术按照统一的流程快速接入到大模型中从而大幅加快Agent开发效率。这就好比现在很多设备都可以使用type-c和电脑连接。
从技术实现角度,我们可以将MCP看成是Function Calling的一种封装,通过server-client
架构和一整套开发工具来规范化Function Calling
开发流程。程序员可以根据MCP协议开发包含不同工具功能的MCP服务端,并将这些服务端分享出来方便大家接入,减少了重复的开发工作,大大加速了Agent开发效率。
此前笔者曾分享了MCP从入门到精通的多篇文章,在学习本篇分享前大家需简单了解MCP完整技术体系,详细内容可见笔者掘金专栏: juejin.cn/column/7537…
二、MCP+LangChain基础调用流程
本期分享我们使用LangChain编写代码调用PlayWright MCP实现浏览器自动化。LangChain调用MCP的原理是将MCP的工具函数直接转换为LangChain的工具函数,然后通过预定义的MCP_Client实现与自行编写或者官方MCP Server的读写操作。简而言之,我们只需要使用LangChain编写MCP Client 客户端代码即可。
2.1 环境搭建
- 首先在我们之前创建的
anaconda
虚拟环境langchainenv
中执行如下命令安装LangChain MCP的相关依赖:pip install langchain-mcp-adapters
- 其次要调用PlayWright官方的浏览器工具需要本地安装node.js,详细的安装流程这里不再赘述,大家可参考我的文章不写一行代码! VsCode+Cline+高德地图MCP Server 帮你搞定和女友的出行规划(附原理解析)。最后编写配置文件,在项目目录下新建
servers_config.json
文件,在mcp汇总网站中找到PlayWright的配置并写入servers_config.json
文件中,同时添加MCP通信方式的配置项transport
。servers_config.json
完整内容如下, 基本原理是通过npx
下载PlayWright MCP Server到本地并通过stdio
方式与LangChain搭建的MCP Client进行通信。{ "mcpServers": { "playwright": { "command": "npx", "args": [ "@playwright/mcp@latest" ], "transport": "stdio" } }}
2.2 使用LangChain实现MCP Client
- 引入相关依赖, LangChain通过
MultiServerMCPClient
构建MCP服务端连接工具。import asyncioimport jsonimport loggingfrom dotenv import load_dotenvfrom langchain import hubfrom langchain.agents import AgentExecutor, create_openai_tools_agentfrom langchain.chat_models import init_chat_modelfrom langchain_mcp_adapters.client import MultiServerMCPClient
- 创建环境配置类,保存DeepSeek大模型的
api_key
等相关配置,通过load_servers
函数加载mcp服务器配置文件servers_config.json
。# ────────────────────────────# 环境配置# ────────────────────────────class Configuration: def __init__(self) -> None: load_dotenv() self.api_key='' self.model="deepseek-chat" @staticmethod def load_servers(file_path = "servers_config.json"): with open(file_path, "r", encoding="utf-8") as f: return json.load(f).get("mcpServers", {})
- 编写MCP接入智能体, 代码如下:
async def run_chat_loop(): """启动 MCP-Agent 聊天循环""" cfg = Configuration() servers_cfg = Configuration.load_servers() # 1️.连接多台 MCP 服务器 mcp_client = MultiServerMCPClient(servers_cfg) tools = await mcp_client.get_tools() # LangChain Tool 对象列表 logging.info(f"✅ 已加载 {len(tools)} 个 MCP 工具: {[t.name for t in tools]}") # 2️.初始化大模型(DeepSeek / OpenAI / 任意兼容 OpenAI 协议的模型) llm = init_chat_model( model=cfg.model, model_provider="deepseek", api_key=cfg.api_key ) # 3️. 构造 LangChain Agent(用通用 prompt) prompt = hub.pull("hwchase17/openai-tools-agent") agent = create_openai_tools_agent(llm, tools, prompt) agent_executor = AgentExecutor(agent=agent, tools=tools, verbose=True) # 4️. CLI 聊天 print("\n🤖 MCP Agent 已启动,输入 'quit' 退出") while True: user_input = input("\n你: ").strip() if user_input.lower() == "quit": break try: result = await agent_executor.ainvoke({"input": user_input}) print(f"\nAI: {result['output']}") except Exception as exc: print(f"\n⚠️ 出错: {exc}")
以上代码中的关键部分是LangChain连接多台MCP服务器,首先通过mcp_client = MultiServerMCPClient(servers_cfg)
创建MCP Server连接对象,其次通过mcp_client.get_tools()
将连接后的MCP Server中的方法全部转换为LangChain可用的工具函数。我们查看mcp_client.get_tools()
的源码,可以看到内部调用了load_mcp_tools()
函数一键将连接MCP Server的所有工具函数转化为标准的LangChain工具,所以可以直接在LangChain环境中进行使用:
转换之后智能体构建的三要素模型、提示词和工具函数具备完全,可以使用我们内容讲过的create_openai_tools_agent
和AgentExecutor
构建并执行智能体。
- 编写主函数执行智能体,本期分享使用与上篇相同的案例,要求智能体爬取Copilot官方介绍页并总结相关内容"访问这个网站 www.microsoft.com/en-us/micro… 并帮我总结一下这个网站的内容",执行结果如下,可以看到PlayWright MCP自动打开浏览器并导航到相关页面进行爬取分析:
完整代码如下:
"""多服务器 MCP + LangChain Agent 示例---------------------------------1. 读取 .env 中的 LLM_API_KEY / BASE_URL / MODEL2. 读取 servers_config.json 中的 MCP 服务器信息3. 启动 MCP 服务器(支持多个)4. 将所有工具注入 LangChain Agent,由大模型自动选择并调用"""import asyncioimport jsonimport loggingfrom dotenv import load_dotenvfrom langchain import hubfrom langchain.agents import AgentExecutor, create_openai_tools_agentfrom langchain.chat_models import init_chat_modelfrom langchain_mcp_adapters.client import MultiServerMCPClient# ────────────────────────────# 环境配置# ────────────────────────────class Configuration: def __init__(self) -> None: load_dotenv() self.api_key='你注册的DeepSeek API KEY' self.model="deepseek-chat" @staticmethod def load_servers(file_path = "servers_config.json"): with open(file_path, "r", encoding="utf-8") as f: return json.load(f).get("mcpServers", {})# ────────────────────────────# 主逻辑# ────────────────────────────async def run_chat_loop(): """启动 MCP-Agent 聊天循环""" cfg = Configuration() servers_cfg = Configuration.load_servers() # 1️⃣ 连接多台 MCP 服务器 mcp_client = MultiServerMCPClient(servers_cfg) tools = await mcp_client.get_tools() # LangChain Tool 对象列表 logging.info(f"✅ 已加载 {len(tools)} 个 MCP 工具: {[t.name for t in tools]}") # 2️⃣ 初始化大模型(DeepSeek / OpenAI / 任意兼容 OpenAI 协议的模型) llm = init_chat_model( model=cfg.model, model_provider="deepseek", api_key=cfg.api_key ) # 3️⃣ 构造 LangChain Agent(用通用 prompt) prompt = hub.pull("hwchase17/openai-tools-agent") agent = create_openai_tools_agent(llm, tools, prompt) agent_executor = AgentExecutor(agent=agent, tools=tools, verbose=True) # 4️⃣ CLI 聊天 print("\n🤖 MCP Agent 已启动,输入 'quit' 退出") while True: user_input = input("\n你: ").strip() if user_input.lower() == "quit": break try: result = await agent_executor.ainvoke({"input": user_input}) print(f"\nAI: {result['output']}") except Exception as exc: print(f"\n⚠️ 出错: {exc}")# ────────────────────────────# 入口# ────────────────────────────if __name__ == "__main__": logging.basicConfig(level=logging.INFO, format="%(asctime)s - %(levelname)s - %(message)s") asyncio.run(run_chat_loop())
三、总结
本期内容分享了LangChain接入MCP服务端的实现流程,基本原理是LangChain编写MCP客户端并将MCP服务端函数通过load_mcp_tools()
转化为LangChain可识别函数并构建智能体,本期内容通过PlayWright自动爬虫项目演示了LangChain+MCP的基本流程。学习完MCP主题,下期内容笔者将使用LangChain搭建一个RAG知识库系统,大家期待一下吧!
本系列分享预计会有20节左右的规模,保证大家看完一定能够掌握LangChain&LangGraph的开发能力,大家感兴趣可关注笔者掘金账号和专栏,更可关注笔者的同名微信公众号:大模型真好玩, 本系列分享的全部代码均可在微信公众号私信笔者: LangChain智能体开发 免费获得