多轮对话中让AI保持长期记忆的8种优化方式篇

多轮对话中让AI保持长期记忆的8种优化方式篇

一、前言

在基于大模型的 Agent 中,长期记忆的状态维护至关重要,在 OpenAI AI 应用研究主管 Lilian Weng 的博客《基于大模型的 Agent 构成》[1]中,将记忆视为关键的组件之一,下面我将结合 LangChain 中的代码,8 种不同的记忆维护方式在不同场景中的应用。

二、Agent 如何获取上下文对话信息?

2.1 获取全量历史对话

以一般客服场景为例:

在电信公司的客服聊天机器人场景中,如果用户在对话中先是询问了账单问题,接着又谈到了网络连接问题,ConversationBufferMemory 可以用来记住整个与用户的对话历史,可以帮助 AI 在回答网络问题时还记得账单问题的相关细节,从而提供更连贯的服务。

复制代码
  from langchain.memory import ConversationBufferMemory
  memory = ConversationBufferMemory()
  memory.save_context({"input": "你好"}, {"output": "怎么了"})


  variables = memory.load_memory_variables({})

2.2 滑动窗口获取最近部分对话内容

以商品咨询场景为例:

在一个电商平台上,如果用户询问关于特定产品的问题(如手机的电池续航时间),然后又问到了配送方式,ConversationBufferWindowMemory 可以帮助 AI 只专注于最近的一两个问题(如配送方式),而不是整个对话历史,以提供更快速和专注的答复。

复制代码
from langchain.memory import ConversationBufferWindowMemory


# 只保留最后1次互动的记忆
memory = ConversationBufferWindowMemory(k=1)

2.3 获取历史对话中实体信息

以法律咨询场景为例:

在法律咨询的场景中,客户可能会提到特定的案件名称、相关法律条款或个人信息(如"我在去年的交通事故中受了伤,想了解关于赔偿的法律建议")。ConversationEntityMemory 可以帮助 AI 记住这些关键实体和实体关系细节,从而在整个对话过程中提供更准确、更个性化的法律建议。

复制代码
llm = ChatOpenAI(model="gpt-3.5-turbo", temperature=0) memory = ConversationEntityMemory(llm=llm)
_input = {"input": "公众号《LLM应用全栈开发》的作者是莫尔索"} memory.load_memory_variables(_input)
memory.save_context(
    _input,
    {"output": "是吗,这个公众号是干嘛的"}
)
print(memory.load_memory_variables({"input": "莫尔索是谁?"})) # 输出,可以看到提取了实体关系
{'history': 'Human: 公众号《LLM应用全栈开发》的作者是莫尔索 \n AI: 是吗,这个公众号是干嘛的',
'entities': {'莫尔索': '《LLM应用全栈开发》的作者。'}}

2.4 利用知识图谱获取历史对话中的实体及其联系

以医疗咨询场景为例:

在医疗咨询中,一个病人可能会描述多个症状和过去的医疗历史(如"我有糖尿病史,最近觉得经常口渴和疲劳")。ConversationKGMemory 可以构建一个包含病人症状、疾病历史和可能的健康关联的知识图谱,从而帮助 AI 提供更全面和深入的医疗建议。

复制代码
from langchain.memory import ConversationKGMemory from langchain.llms import OpenAI
llm = OpenAI(temperature=0)
memory = ConversationKGMemory(llm=llm)
memory.save_context({"input": "小李是程序员"}, {"output": "知道了,小李是程序员"}) memory.save_context({"input": "莫尔索是小李的笔名"}, {"output": "明白,莫尔索是小李的笔名"})

variables = memory.load_memory_variables({"input": "告诉我关于小李的信息"}) print(variables)
# 输出
{'history': 'On 小李: 小李 is 程序员. 小李 的笔名 莫尔索.'}

2.5 对历史对话进行阶段性总结摘要

以教育辅导场景为例:

在一系列的教育辅导对话中,学生可能会提出不同的数学问题或理解难题(如"我不太理解二次方程的求解方法")。ConversationSummaryMemory 可以帮助 AI 总结之前的辅导内容和学生的疑问点,以便在随后的辅导中提供更针对性的解释和练习。

2.6 需要获取最新对话,又要兼顾较早历史对话

以技术支持场景为例:

在处理一个长期的技术问题时(如软件故障排查),用户可能会在多次对话中提供不同的错误信息和反馈。ConversationSummaryBufferMemory 可以帮助 AI 保留最近几次交互的详细信息,同时提供历史问题处理的摘要,以便于更有效地识别和解决问题。

2.7 回溯最近和最关键的对话信息

以金融咨询场景为例:

在金融咨询聊天机器人中,客户可能会提出多个问题,涉及投资、市场动态或个人财务规划(如"我想了解股市最近的趋势以及如何分配我的投资组合")。ConversationTokenBufferMemory 可以帮助 AI 聚焦于最近和最关键的几个问题,同时避免由于记忆过多而导致的信息混淆。

2.8 基于向量检索对话信息

以了解最新新闻事件为例:

用户可能会对特定新闻事件提出问题,如 "最近的经济峰会有什么重要决策?" VectorStoreRetrieverMemory 能够快速从大量历史新闻数据中检索出与当前问题最相关的信息,即使这些信息在整个对话历史中不是最新的,也能提供及时准确的背景信息和详细报道。

复制代码
vectorstore = Chroma(embedding_function=OpenAIEmbeddings())
retriever = vectorstore.as_retriever(search_kwargs=dict(k=1)) memory = VectorStoreRetrieverMemory(retriever=retriever)
memory.save_context({"input": "我喜欢吃火锅"}, {"output": "听起来很好吃"})
memory.save_context({"input": "我不喜欢看摔跤比赛"}, {"output": "我也是"})
PROMPT_TEMPLATE = """以下是人类和 AI 之间的友好对话。AI 话语多且提供了许多来自其上
下文的具体细节。如果 AI 不知道问题的答案,它会诚实地说不知道。
以前对话的相关片段:
{history}
(如果不相关,你不需要使用这些信息)
当前对话:
人类:{input}
AI: """
prompt = PromptTemplate(input_variables=["history", "input"], 
template=PROMPT_TEMPLATE) conversation_with_summary = ConversationChain(
    llm=llm,
    prompt=prompt,
    memory=memory,
    verbose=True
)
print(conversation_with_summary.predict(input="你好,我是莫尔索,你叫什么"))
print(conversation_with_summary.predict(input="我喜欢的食物是什么?")) print(conversation_with_summary.predict(input="我提到了哪些运动?"))

总结

在多轮对话中,AI保持长期记忆的优化方式包括:获取全量历史对话、滑动窗口获取最近部分对话内容、获取历史对话中实体信息、利用知识图谱获取实体及其联系、对历史对话进行阶段性总结摘要、兼顾最新对话和较早历史对话、回溯最近和最关键的对话信息、基于向量检索对话信息。这些方法在不同场景中应用,如客服、商品咨询、法律咨询、医疗咨询、教育辅导、技术支持、金融咨询和新闻事件查询,帮助AI提供更连贯、快速、准确和个性化的服务。

相关推荐
一ge科研小菜鸡8 分钟前
云原生时代的系统设计:架构转型的战略支点
大数据·人工智能
jndingxin16 分钟前
OpenCV CUDA模块图像变形------对图像进行上采样操作函数pyrUp()
人工智能·opencv·计算机视觉
一块plus22 分钟前
Polkadot 的 Web3 哲学:从乔布斯到 Gavin Wood 的数字自由传承
人工智能·程序员·架构
Java学术趴23 分钟前
Transformer架构解密:从自注意力到组件协同,一文读懂AI核心引擎
人工智能
神州问学26 分钟前
从DeepSeek-V3到DeepSeek-R1:中国AI团队的技术突破与创新
人工智能
神州问学30 分钟前
AutoGLM沉思版:智能体推理的Deep Research探索
人工智能·python
Sherlock Ma39 分钟前
Seedance:字节发布视频生成基础模型新SOTA,能力全面提升
人工智能·深度学习·计算机视觉·aigc·音视频·扩散模型·视频生成
浙江赛思电子科技有限公司1 小时前
学校时钟系统,标准考场时钟系统,AI亮相2025高考,赛思时钟系统为教育公平筑起“精准防线”
人工智能·高考
乱世刀疤1 小时前
商业 |AI超级工厂:“AI+制造”的终极目标?
人工智能·工业互联网
天波信息技术分享1 小时前
AI 边缘计算网关推动各行业的数字化转型和智能化升级
人工智能