掘金 人工智能 前天 18:38
LangGraph篇-LangGraph快速入门
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_guoji1.html

 

LangGraph 是一个基于图的库,用于构建具有大型语言模型(LLM)的有状态、多角色应用程序,特别适用于创建代理和多代理工作流。它通过引入循环、可控性和持久性等核心优势,超越了传统的 LLM 框架。LangGraph 允许开发者定义包含循环的流程,提供对应用程序流程和状态的精细控制,并内置持久性以实现高级“人机交互”和记忆功能。通过与 LangChain 的集成,LangGraph 简化了复杂任务的处理,为开发者提供了构建更强大、更灵活的 LLM 应用的工具。

💡 LangGraph 核心功能之一是**循环与分支**,它允许在应用程序中实现循环和条件语句,从而支持更复杂的任务处理和决策。

💾 **持久性**是 LangGraph 的另一大亮点,它能够在图的每个步骤之后自动保存状态,方便暂停、恢复图执行,支持错误恢复、人机交互等高级功能。

🗣️ **人机交互**功能允许在图的执行过程中中断,以便批准或编辑代理的下一个动作,实现更灵活的交互流程。

⚡ LangGraph 还支持**流式传输**,可以在每个节点产生输出时实时流式传输输出,包括令牌流式传输,提高用户体验。

🛠️ LangGraph 与 LangChain 和 LangSmith 无缝集成,但并非必需。LangGraph 与 LangChain 工具结合使用,可以调用 OpenAI 的工具,例如搜索工具等,从而实现更强大的功能。

LangGraph原理

🦜🕸️LangGraph ⚡ 以图的方式构建语言代理 ⚡

官方文档地址:langchain-ai.github.io/langgraph/

LangGraph 是一个用于构建具有 LLMs 的有状态、多角色应用程序的库,用于创建代理和多代理工作流。与其他 LLM 框架相比,它提供了以下核心优势:循环、可控性和持久性。

LangGraph 允许您定义涉及循环的流程,这对于大多数代理架构至关重要。作为一种非常底层的框架,它提供了对应用程序的流程和状态的精细控制,这对创建可靠的代理至关重要。此外,LangGraph 包含内置的持久性,可以实现高级的“人机交互”和内存功能。

LangGraph 是 LangChain 的高级库,为大型语言模型(LLM)带来循环计算能力。它超越了 LangChain 的线性工作流,通过循环支持复杂的任务处理。

langgraph主要功能

langgraph代码初认识

安装langgraph库

pip install -U langgraph

示例代码

LangGraph 的一个核心概念是状态。每次图执行都会创建一个状态,该状态在图中的节点执行时传递,每个节点在执行后使用其返回值更新此内部状态。图更新其内部状态的方式由所选图类型或自定义函数定义。

让我们看一个可以使用搜索工具的简单代理示例。

pip install langchain-openai
setx OPENAI_BASE_URL "https://api.openai.com/v1"setx OPENAI_API_KEY "sk-xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx"

可以选择设置 LangSmith 以实现最佳的可观察性。

setx LANGSMITH_TRACING "true"setx LANGSMITH_API_KEY "xxxxxxxxxxxxxxxx"
#示例:langgraph_hello.pyfrom typing import Literalfrom langchain_core.messages import HumanMessagefrom langchain_core.tools import toolfrom langchain_openai import ChatOpenAI# pip install langgraphfrom langgraph.checkpoint.memory import MemorySaverfrom langgraph.graph import END, StateGraph, MessagesStatefrom langgraph.prebuilt import ToolNode# 定义工具函数,用于代理调用外部工具@tooldef search(query: str):    """模拟一个搜索工具"""    if "上海" in query.lower() or "Shanghai" in query.lower():        return "现在30度,有雾."    return "现在是35度,阳光明媚。"# 将工具函数放入工具列表tools = [search]# 创建工具节点tool_node = ToolNode(tools)# 1.初始化模型和工具,定义并绑定工具到模型model = ChatOpenAI(model="gpt-4o", temperature=0).bind_tools(tools)# 定义函数,决定是否继续执行def should_continue(state: MessagesState) -> Literal["tools", END]:    messages = state['messages']    last_message = messages[-1]    # 如果LLM调用了工具,则转到“tools”节点    if last_message.tool_calls:        return "tools"    # 否则,停止(回复用户)    return END# 定义调用模型的函数def call_model(state: MessagesState):    messages = state['messages']    response = model.invoke(messages)    # 返回列表,因为这将被添加到现有列表中    return {"messages": [response]}# 2.用状态初始化图,定义一个新的状态图workflow = StateGraph(MessagesState)# 3.定义图节点,定义我们将循环的两个节点workflow.add_node("agent", call_model)workflow.add_node("tools", tool_node)# 4.定义入口点和图边# 设置入口点为“agent”# 这意味着这是第一个被调用的节点workflow.set_entry_point("agent")# 添加条件边workflow.add_conditional_edges(    # 首先,定义起始节点。我们使用`agent`。    # 这意味着这些边是在调用`agent`节点后采取的。    "agent",    # 接下来,传递决定下一个调用节点的函数。    should_continue,)# 添加从`tools`到`agent`的普通边。# 这意味着在调用`tools`后,接下来调用`agent`节点。workflow.add_edge("tools", 'agent')# 初始化内存以在图运行之间持久化状态checkpointer = MemorySaver()# 5.编译图# 这将其编译成一个LangChain可运行对象,# 这意味着你可以像使用其他可运行对象一样使用它。# 注意,我们(可选地)在编译图时传递内存app = workflow.compile(checkpointer=checkpointer)# 6.执行图,使用可运行对象final_state = app.invoke(    {"messages": [HumanMessage(content="上海的天气怎么样?")]},    config={"configurable": {"thread_id": 42}})# 从 final_state 中获取最后一条消息的内容result = final_state["messages"][-1].contentprint(result)final_state = app.invoke(    {"messages": [HumanMessage(content="我问的那个城市?")]},    config={"configurable": {"thread_id": 42}})result = final_state["messages"][-1].contentprint(result)
上海现在的天气是30度,有雾。

现在,当我们传递相同的 "thread_id" 时,对话上下文将通过保存的状态(即存储的消息列表)保留下来。

final_state = app.invoke(    {"messages": [HumanMessage(content="我问的那个城市?")]},    config={"configurable": {"thread_id": 42}})result = final_state["messages"][-1].contentprint(result)
你问的是上海的天气。上海现在的天气是30度,有雾。

代码逐步分解

初始化模型和工具

用状态初始化图

定义图节点

我们需要两个主要节点

定义入口点和图边

首先,我们需要设置图执行的入口点——agent 节点。

然后,我们定义一个普通边和一个条件边。条件边意味着目的地取决于图状态(MessageState)的内容。在本例中,目的地在代理(LLM)决定之前是未知的。

编译图

执行图

    LangGraph 将输入消息添加到内部状态,然后将状态传递给入口点节点 "agent" "agent" 节点执行,调用聊天模型。 聊天模型返回 AIMessage 。LangGraph 将其添加到状态中。 图循环以下步骤,直到 AIMessage 上不再有 tool_calls 。 执行进度到特殊的 END 值,并输出最终状态。因此,我们得到所有聊天消息的列表作为输出。

Fish AI Reader

Fish AI Reader

AI辅助创作,多种专业模板,深度分析,高质量内容生成。从观点提取到深度思考,FishAI为您提供全方位的创作支持。新版本引入自定义参数,让您的创作更加个性化和精准。

FishAI

FishAI

鱼阅,AI 时代的下一个智能信息助手,助你摆脱信息焦虑

联系邮箱 441953276@qq.com

相关标签

LangGraph LLM 代理 循环 持久性
相关文章