借助 LangGraph 实现精准控制,设计能够可靠处理复杂任务的智能体。
LangGraph 受到包括 Klarna、Replit、Elastic 等引领智能体未来的企业信赖,是一个底层编排框架与运行时,用于构建、管理和部署长时间运行、有状态的智能体。
LangGraph 非常底层,并且完全专注于智能体编排。
本文档中我们会普遍使用 LangChain 组件来集成模型与工具,但使用 LangGraph 并不需要依赖 LangChain。
如果你刚刚开始接触智能体,或希望使用更高层级的抽象,我们建议你使用 LangChain 的智能体(agents),它为常见的 LLM 与工具调用循环提供了预构建的架构。
LangGraph 专注于对智能体编排至关重要的底层能力:
持久化执行、流式输出、人机协同等。
安装
Bash
pip install -U langgraph
Bash
uv add langgraph
接下来,创建一个简单的"Hello World"示例:
python
from langgraph.graph import StateGraph, MessagesState, START, END
def mock_llm(state: MessagesState):
return {"messages": [{"role": "ai", "content": "hello world"}]}
graph = StateGraph(MessagesState)
graph.add_node(mock_llm)
graph.add_edge(START, "mock_llm")
graph.add_edge("mock_llm", END)
graph = graph.compile()
graph.invoke({"messages": [{"role": "user", "content": "hi!"}]})
核心优势
LangGraph 为任何长时间运行、有状态的工作流或智能体提供底层支撑基础设施。
LangGraph 不会对提示词或架构做高层抽象,而是提供以下核心优势:
-
持久化执行:构建可在故障中恢复、长时间运行的智能体,并能从中断处继续执行。
-
人机协同(Human-in-the-loop):在任意节点检查与修改智能体状态,实现人工监督。
-
完备的记忆能力:构建有状态智能体,同时支持用于实时推理的短期工作记忆和跨会话的长期记忆。
-
使用 LangSmith 调试:通过可视化工具深度观测复杂智能体行为,追踪执行路径、捕获状态转换、提供详细的运行时指标。
-
生产级部署:使用专为有状态、长时间运行工作流设计的可扩展基础设施,放心部署复杂智能体系统。
LangGraph 生态系统
LangGraph 既可以独立使用,也能与任何 LangChain 产品无缝集成,为开发者提供一整套构建智能体的工具链。
为提升 LLM 应用开发体验,可将 LangGraph 与以下工具搭配使用:
- LangSmith
在统一平台中追踪请求、评估输出、监控部署。
使用 LangGraph 本地原型开发,再通过集成式可观测性与评估能力上线生产环境,构建更可靠的智能体系统。
- LangSmith Agent Server
专为长时间运行、有状态工作流设计的部署平台,轻松部署与扩容智能体。
在团队内发现、复用、配置与共享智能体,并通过 Studio 可视化原型工具快速迭代。
- LangChain
提供集成能力与可组合组件,简化 LLM 应用开发。
包含构建在 LangGraph 之上的智能体高层抽象。