在本篇中,我们将系统性梳理 LangChain 的核心模块与设计思想,包括 Chain、Prompt、LLM、Retriever、Memory、Agent、Tool 等构件,帮助你理解 Langchain-Chatchat 是如何构建一个模块化智能问答系统的。
一、LangChain 是什么?
LangChain 是一个 用于构建"语言模型驱动的应用程序" 的框架,目的是将大语言模型(LLM)变成可以与外部世界交互的智能体(Agent)。它通过标准化的组件接口和模块组合方式,使你可以灵活构建:
- 基于文档的问答系统(RAG)
- 多轮对话系统(带记忆)
- 工具调用代理(Agent + Tool)
- 自定义工作流(LangGraph)等
LangChain 并不提供大模型本身,而是提供整合、调度、控制这些模型及其上下游工具的"智能系统框架"。
二、LangChain 的核心构件图
三、LangChain 核心模块详解
1️⃣ PromptTemplate:提示词模板构建器
用于将用户输入格式化为适合模型理解的 Prompt。
示例:
python
from langchain.prompts import PromptTemplate
prompt = PromptTemplate.from_template("请回答:{question}")
prompt.format(question="LangChain 是什么?")
# 输出:请回答:LangChain 是什么?
📌 在 Langchain-Chatchat 中,系统会自动构建包含"用户问题 + 检索文段"的复合 Prompt。
2️⃣ LLM:语言模型接口封装器
LangChain 将各种模型(OpenAI、ChatGLM、Qwen、LLaMA 等)封装为统一接口,便于互换与控制。
示例:
python
from langchain.chat_models import ChatOpenAI
llm = ChatOpenAI(model_name="gpt-3.5-turbo")
llm.predict("你好")
📌 在 Langchain-Chatchat 项目中支持市面上主流的如 GLM-4-Chat 与 Qwen2-Instruct 等新近开源大语言模型和 Embedding 模型,需要用户自行启动模型部署框架后,通过修改配置信息接入项目。
3️⃣ Chain:模型调用流程的最小组合单元
一个 Chain 代表"输入 → 处理 → 输出"的完整流程,最常见的是 LLMChain
:
python
from langchain.chains import LLMChain
chain = LLMChain(llm=llm, prompt=prompt)
chain.run("LangChain 有哪些模块?")

🔁 可以组合多个 Chain 构建复杂流程,如:先检索文档,再提问大模型。
4️⃣ Retriever:向量检索模块
将用户问题转化为向量,与本地文档向量库比对,返回最相关的片段。
python
from langchain.vectorstores import FAISS
from langchain.embeddings import HuggingFaceEmbeddings
db = FAISS.load_local("docs_index", HuggingFaceEmbeddings())
retriever = db.as_retriever()
results = retriever.get_relevant_documents("LangChain 是什么?")
📌 在 Langchain-Chatchat 中,Retriever 负责驱动整个 RAG 流程。
5️⃣ Memory:对话记忆机制
支持多轮对话时保留上下文,包括短期(缓冲区)和长期(持久化)记忆:
python
from langchain.memory import ConversationBufferMemory
memory = ConversationBufferMemory()
📌 Chatchat 支持 RedisMemory、会话数据库等多种 Memory 后端。
6️⃣ Tool:外部工具的封装模块
让大模型调用数据库、搜索引擎、API 等"外部智能体":
python
from langchain.tools import Tool
search_tool = Tool(
name="arxiv",
func=search_arxiv_function,
description="学术搜索工具"
)
📌 Langchain-Chatchat 中集成了 10+ 工具,包括 Wolfram、文生图、SQL 查询等。
7️⃣ Agent:可规划决策的智能体调度器
Agent 是 LangChain 中最复杂但最强大的模块,能让大模型自主选择调用哪些 Tool,并根据中间结果做下一步判断。
python
from langchain.agents import initialize_agent
agent = initialize_agent(
tools=[search_tool],
llm=llm,
agent_type="zero-shot-react-description"
)
agent.run("请帮我查找最新的LangChain论文")
📌 Langchain-Chatchat 中的 Agent 模块在使用带 Tool 的对话时自动调度。
四、模块之间是如何协作的?
以 Chatchat 中一个典型的问答流程为例:
-
用户输入问题;
-
若启用 Agent,则通过 Agent → Tool → 工具输出 → 拼接 Prompt → 模型回答;
-
否则走 RAG 流程:
- Retriever 先检索文档;
- 拼接 Prompt;
- 提交给 LLM 回答;
-
可选使用 Memory 保存对话上下文;
-
输出最终结果到前端(WebUI 或 API)。
五、LangChain 模块化的价值
维度 | 优势 |
---|---|
🚀 可扩展性 | 更换模型、增加工具、换向量库都不需要重写主流程 |
🔧 可组合性 | Prompt + Retriever + LLM 可任意搭配 |
🧠 具备智能行为 | Agent 具备规划和决策能力,能多步思考 |
💾 具备记忆能力 | 支持保存上下文,完成连续多轮交互 |
🌐 跨模态融合 | 工具调用支持文本、图像、SQL、搜索等多种形式 |
✅ 小结
LangChain 不是一个"聊天模型",而是一个智能体开发框架。它的核心在于"将大模型作为智能内核",用 Chain、Tool、Agent、Memory 等外围组件构建一个拥有感知、记忆、行动能力的系统。正是这些模块,构成了 Langchain-Chatchat 强大的语义问答与工具集成功能的基石。