《状态机驱动的 LLM 应用架构:基于流水线范式解析 LangGraph 的 Graph 核心》

前言

LangGraph其实就是把llm和函数、业务逻辑杂糅在一起做了一个流程编排的应用框架。它的核心是Graph图。那么这篇文章就是帮助你理解这个Graph图的核心应用。文中引入了应用案例:一个聊天机器人。

首先我们需呀安装依赖

python 复制代码
pip install -U langgraph langsmith

关于langgraph的图Graph

我们可以把图Graph想象成一个流程图或者工厂的流水线。

流水线的三要素

  1. 产品-The State-状态
    1. 工厂流水线上的产品比如汽车的底盘就是一个产品。我们可以把langgraph创建的一次会话当成一个产品,也就是State对象,它里面装着message列表。
  2. 工作站-The-Node-节点
    1. 节点就相当于流水线上的工作站,在工厂里,产品到了工作站,工人就开始对产品做一些操作,比如说安装轮胎。我们可以把langgraph里的节点想象成一个函数,这个函数做指定的操作。
    2. 我们的代码里, chatbot 函数就是一个工作站。当"对话"这个产品流到这里时, chatbot 函数就对它进行一步操作: 调用大语言模型(LLM)获取回复 。
  3. 传送带-The-Edge-边
    1. 在工厂里,传送带决定了流水线上的产品从哪个工作站传送到哪个工作站。
    2. 在我们的代码里, add_edge 定义的就是传送带的走向。它告诉程序,产品应该从哪里送到哪里。
定义State-一次会话-一个产品
python 复制代码
class State(TypedDict):
    messages: Annotated[list, add_messages]
定义节点-函数
python 复制代码
def chatbot(state: State):
    return {"messages": [llm.invoke(state["messages"])]}
定义边
py 复制代码
graph_builder.add_edge(START, "chatbot")

这个边我们从开始节点指向了函数节点chatbot,相当于这个流程走完到这个函数就终止了。

markdown 复制代码
[ START (开始) ] ---------> [ "chatbot" 工作站 ]

langgraph的核心价值

它提供了一个清晰的框架,让我们能够像画流程图一样,去设计和组织复杂的 AI 应用逻辑,而不是把所有 if-else 判断都写在一个巨大的函数里。

当前代码里的"图",是一个只有一个步骤的、最简单的流程图。它之所以存在,是为了给我们提供一个强大的框架,以便未来可以轻松地在其中添加更多的"工作站"(功能)和"传送带"(逻辑)。

状态机画流程图-StateGraph()

我们可以通过创建StateGraph()对象来创建一个新的、空白的流程图蓝图,并规定在这张蓝图上流动的所有数据都必须符合 State 这个格式。

python 复制代码
graph_builder = StateGraph(State)
(...) 里的 State - "规定产品的规格"

在这张流程图(Graph)的任何传送带(Edge)上流动的数据,都必须是 State 这个样子的。

完整代码

python 复制代码
import os
from typing import Annotated

from dotenv import load_dotenv
from langchain.chat_models import init_chat_model
from langchain_openai import ChatOpenAI
from typing_extensions import TypedDict

from langgraph.graph import StateGraph, START
from langgraph.graph.message import add_messages
##构建一个基本聊天机器人¶

load_dotenv()
class State(TypedDict):
    messages: Annotated[list, add_messages]


graph_builder = StateGraph(State)

llm = ChatOpenAI(
    api_key=os.getenv("DASHSCOPE_API_KEY"),
    base_url="https://dashscope.aliyuncs.com/compatible-mode/v1",
    model="qwen-plus",
    temperature=0
)


def chatbot(state: State):
    return {"messages": [llm.invoke(state["messages"])]}


# The first argument is the unique node name
# The second argument is the function or object that will be called whenever
# the node is used.cc g
graph_builder.add_node("chatbot", chatbot)
graph_builder.add_edge(START, "chatbot")
graph = graph_builder.compile()


while True:
    user_input = input("User: ")
    if user_input.lower() in ["quit", "exit", "q"]:
        print("Goodbye!")
        break
    for event in graph.stream({"messages": [("user", user_input)]}):
        if "chatbot" in event:
            print("AI:", event["chatbot"]["messages"][-1].content)
相关推荐
lijianhua_97123 小时前
国内某顶级大学内部用的ai自动生成论文的提示词
人工智能
蔡俊锋3 小时前
用AI实现乐高式大型可插拔系统的技术方案
人工智能·ai工程·ai原子能力·ai乐高工程
自然语3 小时前
人工智能之数字生命 认知架构白皮书 第7章
人工智能·架构
大熊背3 小时前
利用ISP离线模式进行分块LSC校正的方法
人工智能·算法·机器学习
eastyuxiao4 小时前
如何在不同的机器上运行多个OpenClaw实例?
人工智能·git·架构·github·php
诸葛务农4 小时前
AGI 主要技术路径及核心技术:归一融合及未来之路5
大数据·人工智能
光影少年4 小时前
AI Agent智能体开发
人工智能·aigc·ai编程
ai生成式引擎优化技术4 小时前
TSPR-WEB-LLM-HIC (TWLH四元结构)AI生成式引擎(GEO)技术白皮书
人工智能
帐篷Li4 小时前
9Router:开源AI路由网关的架构设计与技术实现深度解析
人工智能
新缸中之脑4 小时前
在GCP上运行autoresearch
人工智能