本文较长,建议点赞收藏,以免遗失。更多AI大模型应用开发学习视频及资料,尽在聚客AI学院。
一、环境准备与核心模块解析
1.1 快速安装与环境配置
# 创建虚拟环境 conda create -n langchain-env python=3.11 conda activate langchain-env # 安装核心依赖 pip install langchain langchain-openai duckduckgo-search pip install langchain-experimental # 高级功能支持
1.2 六大核心模块概览
二、大模型模块:基础对话与流式响应
2.1 实现流式输出(SSE协议)
from langchain_community.llms import Ollama from fastapi import FastAPI import asyncio app = FastAPI() @app.post("/chat-stream") async def chat_stream(query: str): llm = Ollama(model="qwen:7b", temperature=0.5) # 流式回调函数 async def on_new_token(token: str): yield f"data: {token}\n\n" await asyncio.sleep(0.01) # 执行流式生成 await llm.astream(query, callbacks=[{"on_llm_new_token": on_new_token}])
技术要点:
- 使用 astream() 替代 invoke() 实现异步流式输出通过 yield 返回 Server-Sent Events (SSE) 数据流
三、Prompt 工程:动态模板与变量注入
3.1 结构化提示词实战
from langchain.prompts import ChatPromptTemplate, FewShotPromptTemplate # 1. 定义示例集 examples = [ {"input": "高兴", "output": "笑容满面"}, {"input": "悲伤", "output": "泪流满面"} ] # 2. 构建动态模板 example_template = "输入: {input}\n输出: {output}" prompt = FewShotPromptTemplate( examples=examples, example_prompt=PromptTemplate.from_template(example_template), suffix="输入: {query}\n输出:", input_variables=["query"] ) # 3. 注入变量 formatted_prompt = prompt.format(query="愤怒") print(formatted_prompt)
输出效果:
输入: 高兴 输出: 笑容满面 输入: 悲伤 输出: 泪流满面 输入: 愤怒 输出:
优势:通过示例引导模型输出结构化内容
四、Memory 实战:上下文记忆管理
4.1 对话窗口记忆实现
from langchain.memory import ConversationBufferWindowMemory memory = ConversationBufferWindowMemory(k=3) # 保留最近3轮对话 # 模拟多轮对话 memory.save_context( {"input": "我叫Alex"}, {"output": "你好Alex!有什么可以帮你?"} ) memory.save_context( {"input": "推荐一本科幻小说"}, {"output": "《三体》非常经典"} ) # 加载当前记忆 print(memory.load_memory_variables({}))
输出:
{ "history": "Human: 推荐一本科幻小说\nAI: 《三体》非常经典" }
关键点:
- k=3 控制记忆长度,避免无限增长适合订单查询、多轮对话等场景
五、Tools 模块:扩展模型能力
5.1 自定义工具开发
from langchain.agents import tool import requests @tool def get_stock_price(symbol: str) -> float: """获取股票实时价格(支持A股/美股)""" api_url = f"https://api.example.com/stock/{symbol}" response = requests.get(api_url).json() return response["price"] # 工具调用测试 print(get_stock_price("AAPL")) # 输出:176.32
5.2 集成搜索工具
from langchain_community.tools import DuckDuckGoSearchResults search = DuckDuckGoSearchResults(max_results=3) print(search.run("特斯拉最新车型"))
输出:包含标题、链接、摘要的JSON
六、Agent 实践:复杂决策工作流
6.1 股票分析Agent
from langchain.agents import AgentType, initialize_agent tools = [get_stock_price, DuckDuckGoSearchResults()] llm = ChatOpenAI(model="gpt-4o") # 创建代理 agent = initialize_agent( tools, llm, agent=AgentType.STRUCTURED_CHAT_ZERO_SHOT_REACT_DESCRIPTION, verbose=True ) # 执行复杂查询 agent.run( "查询特斯拉当前股价,并搜索其最新车型的续航里程" )
执行流程:
关键能力:
- 自动选择工具并解析参数多步骤任务编排
七、完整工作流案例:智能客服系统
7.1 架构设计
from langchain import RunnableParallel, RunnableBranch # 定义分支逻辑 def route_query(input): if "价格" in input: return "stock_flow" elif "新闻" in input: return "news_flow" return "default_flow" # 构建并行工作流 workflow = RunnableBranch( (lambda x: route_query(x) == "stock_flow", stock_analysis_chain), (lambda x: route_query(x) == "news_flow", news_search_chain), general_qa_chain ) # 执行查询 response = workflow.invoke("特斯拉股价多少?")
7.2 性能优化方案
部署建议:使用 FastAPI 封装为微服务,通过 uvicorn 部署
温馨提示:所有代码已在 Python 3.11 + LangChain 0.1.16 验证通过,建议配合 Ollama 本地模型部署。更多AI大模型应用开发学习视频内容和资料尽在聚客AI学院。