基于 LangChain 实现带记忆功能的智能对话

在 AI 应用开发中,对话记忆是提升用户体验的核心能力之一 ------ 让 AI 能够记住上下文、理解用户过往的对话内容,才能实现真正的 "多轮智能对话"。本文将基于 LangChain 框架,结合阿里云通义千问模型,手把手教你实现一个具备完整对话记忆功能的 AI 助手。

一、技术原理与依赖库

1.1核心依赖库说明

  • LangChain:一站式 LLM 应用开发框架,提供了对话记忆、提示词模板、模型调用等开箱即用的工具,是构建对话系统的核心。

  • LangChain-OpenAI:LangChain 适配 OpenAI API 规范的模型调用模块,可兼容阿里云通义千问(通过兼容模式)。

  • OpenAI SDK:基础的 API 调用工具,本文中主要用于对比展示,核心对话逻辑仍基于 LangChain 实现。

1.2 对话记忆的核心逻辑

对话记忆的本质是存储用户与 AI 的历史交互内容,并在每次新对话时将历史内容传入模型,让模型基于完整上下文生成回复。本文使用ConversationBufferMemory(对话缓冲记忆),它会按顺序存储所有对话内容,是最基础且易理解的记忆组件。

二、完整代码实现

2.1初始化配置

配置模型密钥、基础 URL(适配阿里云通义千问),并初始化模型和记忆组件:

python 复制代码
from langchain.memory import ConversationBufferMemory
from langchain.prompts import ChatPromptTemplate, MessagesPlaceholder
from langchain_openai import ChatOpenAI

# 1. 初始化ChatOpenAI模型(适配通义千问)
model = ChatOpenAI(
    model="qwen3.5-plus",  # 通义千问3.5版本
    api_key="sk-8a107f8b6d8a48b0a19bca255554484a",  # 替换为你的API Key
    base_url="https://dashscope.aliyuncs.com/compatible-mode/v1",  # 阿里云兼容模式地址
    temperature=1.2,  # 生成随机性,值越大越灵活
    max_tokens=100    # 最大生成token数
)

# 2. 初始化对话记忆组件
# return_messages=True:以消息对象列表形式存储(推荐),False则存储为字符串
memory = ConversationBufferMemory(return_messages=True)

2.2手动存储历史对话(基础演示)

先手动存入两轮对话,验证记忆组件的存储功能:

python 复制代码
# 存储第一轮对话:用户告知名字
memory.save_context(
    {"input": "我的名字是陆天宇"},  # 用户输入
    {"output": "你好,陆天宇"}     # AI输出
)

# 存储第二轮对话:用户告知所在学院
memory.save_context(
    {"input": "我在兰智数模学院"},
    {"output": "好的,我记住了"}
)

# 查看已存储的历史对话
print("当前记忆内容:", memory.load_memory_variables({}))

2.4 构建带记忆的提示词模板

提示词模板是连接历史记忆和新对话的关键,通过MessagesPlaceholder预留历史消息位置:

复制代码
# 构建提示词模板
prompt = ChatPromptTemplate.from_messages(
    [
        ("system", "你是一个AI助手,必须基于历史对话回答问题。"),  # 系统角色
        MessagesPlaceholder(variable_name="history"),  # 历史消息占位符
        ("human", "{user_input}")  # 新的用户输入占位符
    ]
)

2.5 构建对话链并实现多轮交互

将提示词模板与模型串联成 "对话链",实现带记忆的智能回复:

复制代码
# 构建对话链:提示词模板 → 模型
chain = prompt | model

# 第一轮交互:询问名字(验证记忆)
user_input = "你知道我的名字吗?"
# 加载历史记忆
history = memory.load_memory_variables({})["history"]
# 调用模型生成回复
result = chain.invoke({
    "user_input": user_input,
    "history": history
})
# 存储本轮对话到记忆中
memory.save_context({"input": user_input}, {"output": result.content})
print(f"AI回复:{result.content}")

# 第二轮交互:询问上一个问题(验证上下文理解)
user_input = "根据对话历史告诉我,我上一个问题问你的是什么?请重复一遍"
history = memory.load_memory_variables({})["history"]
result = chain.invoke({
    "user_input": user_input,
    "history": history
})
print(f"AI回复:{result.content}")

核心代码解析

  • ConversationBufferMemory:

    • load_memory_variables({}):加载所有历史对话,返回字典(key 为 "history")。

    • save_context(inputs, outputs):存储单轮对话,inputs 是用户输入字典,outputs 是 AI 输出字典。

  • MessagesPlaceholder:必须与记忆组件的输出格式匹配(return_messages=True 时,历史消息是消息对象列表),否则会导致格式错误。

相关推荐
ar01232 小时前
AR远程协助优势:赋能行业的全新变革
人工智能·ar
Swift社区2 小时前
AI 原生鸿蒙应用开发实战
人工智能·华为·harmonyos
薛定猫AI2 小时前
【深度解析】打造高效AI编码环境:Google Antigravity结合Everything Claude Code的实战指南
人工智能·everything
ar01232 小时前
AR装配训练系统:赋能工业新技能培训
人工智能·ar
IT 行者2 小时前
Claude Code Viewer: 打造 Web 端 Claude Code 会话管理利器
前端·人工智能·python·django
on_pluto_2 小时前
论文GAN(GRAPH ATTENTION NETWORKS)阅读笔记
服务器·人工智能·pytorch·conda
小超同学你好2 小时前
LangGraph 10. 记忆管理与三层记忆 与 OpenClaw Memory 模块介绍
人工智能·语言模型·langchain
QQsuccess2 小时前
PyTorch保姆级安装教程
人工智能·pytorch·python·深度学习