基于 LangChain 实现带记忆功能的智能对话

在 AI 应用开发中,对话记忆是提升用户体验的核心能力之一 ------ 让 AI 能够记住上下文、理解用户过往的对话内容,才能实现真正的 "多轮智能对话"。本文将基于 LangChain 框架,结合阿里云通义千问模型,手把手教你实现一个具备完整对话记忆功能的 AI 助手。

一、技术原理与依赖库

1.1核心依赖库说明

  • LangChain:一站式 LLM 应用开发框架,提供了对话记忆、提示词模板、模型调用等开箱即用的工具,是构建对话系统的核心。

  • LangChain-OpenAI:LangChain 适配 OpenAI API 规范的模型调用模块,可兼容阿里云通义千问(通过兼容模式)。

  • OpenAI SDK:基础的 API 调用工具,本文中主要用于对比展示,核心对话逻辑仍基于 LangChain 实现。

1.2 对话记忆的核心逻辑

对话记忆的本质是存储用户与 AI 的历史交互内容,并在每次新对话时将历史内容传入模型,让模型基于完整上下文生成回复。本文使用ConversationBufferMemory(对话缓冲记忆),它会按顺序存储所有对话内容,是最基础且易理解的记忆组件。

二、完整代码实现

2.1初始化配置

配置模型密钥、基础 URL(适配阿里云通义千问),并初始化模型和记忆组件:

python 复制代码
from langchain.memory import ConversationBufferMemory
from langchain.prompts import ChatPromptTemplate, MessagesPlaceholder
from langchain_openai import ChatOpenAI

# 1. 初始化ChatOpenAI模型(适配通义千问)
model = ChatOpenAI(
    model="qwen3.5-plus",  # 通义千问3.5版本
    api_key="sk-8a107f8b6d8a48b0a19bca255554484a",  # 替换为你的API Key
    base_url="https://dashscope.aliyuncs.com/compatible-mode/v1",  # 阿里云兼容模式地址
    temperature=1.2,  # 生成随机性,值越大越灵活
    max_tokens=100    # 最大生成token数
)

# 2. 初始化对话记忆组件
# return_messages=True:以消息对象列表形式存储(推荐),False则存储为字符串
memory = ConversationBufferMemory(return_messages=True)

2.2手动存储历史对话(基础演示)

先手动存入两轮对话,验证记忆组件的存储功能:

python 复制代码
# 存储第一轮对话:用户告知名字
memory.save_context(
    {"input": "我的名字是陆天宇"},  # 用户输入
    {"output": "你好,陆天宇"}     # AI输出
)

# 存储第二轮对话:用户告知所在学院
memory.save_context(
    {"input": "我在兰智数模学院"},
    {"output": "好的,我记住了"}
)

# 查看已存储的历史对话
print("当前记忆内容:", memory.load_memory_variables({}))

2.4 构建带记忆的提示词模板

提示词模板是连接历史记忆和新对话的关键,通过MessagesPlaceholder预留历史消息位置:

复制代码
# 构建提示词模板
prompt = ChatPromptTemplate.from_messages(
    [
        ("system", "你是一个AI助手,必须基于历史对话回答问题。"),  # 系统角色
        MessagesPlaceholder(variable_name="history"),  # 历史消息占位符
        ("human", "{user_input}")  # 新的用户输入占位符
    ]
)

2.5 构建对话链并实现多轮交互

将提示词模板与模型串联成 "对话链",实现带记忆的智能回复:

复制代码
# 构建对话链:提示词模板 → 模型
chain = prompt | model

# 第一轮交互:询问名字(验证记忆)
user_input = "你知道我的名字吗?"
# 加载历史记忆
history = memory.load_memory_variables({})["history"]
# 调用模型生成回复
result = chain.invoke({
    "user_input": user_input,
    "history": history
})
# 存储本轮对话到记忆中
memory.save_context({"input": user_input}, {"output": result.content})
print(f"AI回复:{result.content}")

# 第二轮交互:询问上一个问题(验证上下文理解)
user_input = "根据对话历史告诉我,我上一个问题问你的是什么?请重复一遍"
history = memory.load_memory_variables({})["history"]
result = chain.invoke({
    "user_input": user_input,
    "history": history
})
print(f"AI回复:{result.content}")

核心代码解析

  • ConversationBufferMemory:

    • load_memory_variables({}):加载所有历史对话,返回字典(key 为 "history")。

    • save_context(inputs, outputs):存储单轮对话,inputs 是用户输入字典,outputs 是 AI 输出字典。

  • MessagesPlaceholder:必须与记忆组件的输出格式匹配(return_messages=True 时,历史消息是消息对象列表),否则会导致格式错误。

相关推荐
Thomas.Sir16 小时前
第一章:Agent智能体开发实战之【初步认识 LlamaIndex:从入门到实操】
人工智能·python·ai·检索增强·llama·llamaindex
笨笨饿16 小时前
29_Z变换在工程中的实际意义
c语言·开发语言·人工智能·单片机·mcu·算法·机器人
boy快快长大16 小时前
【大模型应用开发】记忆
人工智能
LaughingZhu16 小时前
Product Hunt 每日热榜 | 2026-04-05
前端·数据库·人工智能·经验分享·神经网络
OPHKVPS16 小时前
GoBruteforcer(GoBrut)僵尸网络新攻势:AI 生成弱配置成“帮凶”,瞄准加密货币及区块链数据库
网络·人工智能·区块链
打乒乓球只会抽16 小时前
AI Agent:大模型+工具的智能革命
人工智能
Pelb17 小时前
求导 y = f(x) = x^2
人工智能·深度学习·神经网络·数学建模
workflower17 小时前
注塑机行业目前自动化现状分析
运维·人工智能·语言模型·自动化·集成测试·软件工程·软件需求
CeshirenTester17 小时前
华泰证券2027届校招启动|提前批+国际管培+金融科技,三个专场一次说清
人工智能·科技·金融
前端摸鱼匠17 小时前
YOLOv11与OpenCV 联动实战:读取摄像头实时视频流并用 YOLOv11 进行检测(三)
人工智能·python·opencv·yolo·目标检测·计算机视觉·目标跟踪