【LangGraph】ReAct构建-LangGraph简单实现


从零手写一个 ReAct 智能体:基于 LangGraph 的完整实现

本文将带你从零开始,使用 LangGraph 构建一个经典的 ReAct(Reason + Act)智能体。你将掌握如何自定义状态、节点、工具调用逻辑与控制流,真正理解智能体背后的运行机制。

什么是 ReAct 智能体?

ReAct(Reasoning + Acting)是一种结合推理(Reason)与行动(Act)的智能体框架。它通过"思考 → 调用工具 → 再思考 → 回答"的循环,显著提升了大语言模型(LLM)在复杂任务中的表现力和可靠性。

LangChain 提供了 create_react_agent 这样的高层封装,但如果你想深度定制行为逻辑(比如修改推理策略、插入中间节点、控制工具调用条件等),就需要"从零实现"一个 ReAct 智能体。这正是本文的目标。


准备工作

首先,安装必要依赖并配置 API 密钥:

python 复制代码
import getpass
import os

def _set_env(var: str):
    if not os.environ.get(var):
        os.environ[var] = getpass.getpass(f"{var}: ")

_set_env("OPENAI_API_KEY")

建议同时注册 LangSmith,它能帮助你可视化追踪智能体的每一步执行过程,极大提升调试效率。


第一步:定义智能体状态(State)

我们使用 TypedDict 定义一个最简状态结构,只包含消息历史:

python 复制代码
from typing import Annotated, Sequence, TypedDict
from langchain_core.messages import BaseMessage
from langgraph.graph.message import add_messages

class AgentState(TypedDict):
    messages: Annotated[Sequence[BaseMessage], add_messages]

这里 add_messages 是一个 reducer,用于自动合并新消息到历史列表中,避免手动管理状态。


第二步:绑定模型与工具

我们使用 OpenAI 的 gpt-4o-mini 模型,并定义一个简单的天气查询工具:

python 复制代码
from langchain_openai import ChatOpenAI
from langchain_core.tools import tool

@tool
def get_weather(location: str):
    """获取指定地点的天气信息"""
    if any(city in location.lower() for city in ["sf", "san francisco"]):
        return "It's sunny in San Francisco, but you better look out if you're a Gemini 😈."
    else:
        return f"I am not sure what the weather is in {location}"

tools = [get_weather]
model = ChatOpenAI(model="gpt-4o-mini").bind_tools(tools)

注意:bind_tools(tools) 会自动让模型具备调用这些工具的能力。


第三步:定义图节点(Nodes)与边(Edges)

1. 工具执行节点(tool_node)

当模型决定调用工具时,该节点负责执行并返回结果:

python 复制代码
import json
from langchain_core.messages import ToolMessage

tools_by_name = {tool.name: tool for tool in tools}

def tool_node(state: AgentState):
    outputs = []
    for tool_call in state["messages"][-1].tool_calls:
        result = tools_by_name[tool_call["name"]].invoke(tool_call["args"])
        outputs.append(
            ToolMessage(
                content=json.dumps(result),
                name=tool_call["name"],
                tool_call_id=tool_call["id"],
            )
        )
    return {"messages": outputs}

2. 模型推理节点(call_model)

该节点负责调用 LLM,传入系统提示和完整对话历史:

python 复制代码
from langchain_core.messages import SystemMessage
from langchain_core.runnables import RunnableConfig

def call_model(state: AgentState, config: RunnableConfig):
    system_prompt = SystemMessage("You are a helpful AI assistant...")
    response = model.invoke([system_prompt] + state["messages"], config)
    return {"messages": [response]}

3. 控制流判断(should_continue)

决定是否继续调用工具,还是结束对话:

python 复制代码
def should_continue(state: AgentState):
    last_message = state["messages"][-1]
    return "continue" if last_message.tool_calls else "end"

第四步:构建状态图(Graph)

使用 StateGraph 将上述组件组装成一个循环工作流:

python 复制代码
from langgraph.graph import StateGraph, END

workflow = StateGraph(AgentState)
workflow.add_node("agent", call_model)
workflow.add_node("tools", tool_node)
workflow.set_entry_point("agent")

# 条件边:agent → tools 或 END
workflow.add_conditional_edges(
    "agent",
    should_continue,
    {"continue": "tools", "end": END}
)

# 工具执行后返回 agent
workflow.add_edge("tools", "agent")

graph = workflow.compile()

你可以通过 graph.get_graph().draw_mermaid_png() 可视化该流程图(需安装额外依赖)。


第五步:运行智能体

现在,让我们测试它能否正确回答天气问题:

python 复制代码
def print_stream(stream):
    for s in stream:
        s["messages"][-1].pretty_print()

inputs = {"messages": [("user", "what is the weather in sf")]}
print_stream(graph.stream(inputs, stream_mode="values"))

输出如下:

复制代码
Human: what is the weather in sf
AI: [调用 get_weather 工具]
Tool: "It's sunny in San Francisco..."
AI: The weather in San Francisco is sunny! ...

完美!智能体成功完成"推理 → 调用 → 再推理 → 回答"的完整 ReAct 循环。


总结与扩展

通过本文,你已掌握如何用 LangGraph 从零构建一个 ReAct 智能体。这种低层实现方式赋予你极大的灵活性:

  • 可插入日志节点、验证节点、审批节点;
  • 可替换为结构化输出(如 Pydantic);
  • 可集成邮件、数据库、API 等外部动作;
  • 可结合记忆、多智能体协作等高级模式。

正如官方文档所强调的:"LangGraph 让你轻松定制这个基础结构,以适应你的具体用例"。

提示 :虽然本文实现的是简化版 ReAct(未显式生成"Thought"文本),但它完全符合 ReAct 的核心思想------交替进行推理与行动。如需显式推理步骤,可在 prompt 中强制模型输出 Thought: ...,并在解析时提取。


参考


相关推荐
AI大模型12 小时前
手把手教:LangChain+Qwen3搭建本地RAG问答系统,从0到1全流程
程序员·langchain·llm
码农阿日1 天前
【日常学习-理解Langchain】从问题出发,我理解了LangChain为什么必须这么设计
服务器·学习·langchain
2202_756749691 天前
LangChain:LLMs和ChatModels介绍、LangChain 集成大模型的本地部署与 API 调用实践、提示词prompt、输出解析器、链
人工智能·langchain·prompt
学Linux的语莫1 天前
langchain输出解析器
java·前端·langchain
RainbowSea6 天前
14. Java开发者LLM实战——LangChain4j最新知识库实战
java·langchain·ai编程
RainbowSea6 天前
13. LangChain4j + 加入检索增加生成 RAG(知识库)
java·langchain·ai编程
虫无涯7 天前
LangSmith:大模型应用开发的得力助手
人工智能·langchain·llm
玲小珑8 天前
LangChain.js 完全开发手册(九)LangGraph 状态图与工作流编排
前端·langchain·ai编程
RainbowSea8 天前
12. LangChain4j + 向量数据库操作详细说明
java·langchain·ai编程