【AI】如何设计Agent的记忆系统?

记忆模块是Agent打破LLM上下文窗口限制、实现持续学习和个性化的关键。

设计Agent的记忆系统可以仿照人类的记忆机制。

分为短期记忆和长期记忆。

1、短期记忆(Short-Term Memory):

  • 作用 :存储当前任务的上下文信息 ,包括即时对话历史、中间的思考步骤、工具的调用结果等。
    它是Agent进行连贯思考和行动的基础。
  • 实现方式
    • LLM的上下文窗口(Context Window):这是最直接的短期记忆载体。所有最近的交互都会被放入Prompt中。
    • 缓冲区(Buffers): 在Agent框架中(如LangChain)中,通常会使用不同类型的缓冲区来管理对话历史。例如:
      • ConversationBufferMemory:存储完整的对话历史。
      • ConversationBufferWindowMemory:只保留最近的K轮对话。
      • ConversationSummaryBufferWindowMemory:在历史对话过长时,动态地用LLM进行总结,节省Token。
    • 暂存器(Scratchpad) :用于记录ReAct框架 中"Thought-Action-Observation"轨迹,是Agent进行逐步推理的关键。

2、长期记忆(Long-Term Memory):

  • 作用 :存储跨越任务和时间维度的信息。如用户的个人偏好、过去的成功/失败经验、领域知识等,
    它使得Agent能够 学习和成长。
  • 实现方式与外部工具:长期记忆的核心是"存储"和"检索",通常需要借助外部技术。主流的是RAG。
  • 核心技术向量数据库(Vector Database)
  • 工作流程

a.存储(Storing/Writing) :当Agent获得一个有价值的信息(如用户明确给出的偏好、一个成功决解问题的完整流程)时

它会使用一个嵌入模型(Embedding Model) 将这段文本信息转换成一个高维向量。

然后将这个向量及其原始文本存入向量数据库中。

b.检索(Retrieving/Reading): Agent进行规划或决策时,它会把当前任务或问题也转换成一个查询向量。

然后用这个查询向量去向量数据库中进行相似度检索,找出与当前情况最相关的历史记忆。

c.使用(Using): 检索到的记忆(原始文本)会被插入到LLM的Prompt中,作为额外的上下文,来指导LLM做出更明智的决策。

  • 其他技术
    传统数据库/知识图谱:对结构化或关系型数据,使用SQL数据库或图数据库进行存储和精确查询也是一种有效的长期记忆形式。
相关推荐
Anastasiozzzz38 分钟前
深入研究RAG: 在线阶段-查询&问答
数据库·人工智能·ai·embedding
专职3 小时前
Cline与大模型的交互协议(内涵Agent实现原理)
agent
Thomas.Sir4 小时前
第二章:LlamaIndex 的基本概念
人工智能·python·ai·llama·llamaindex
运维智库5 小时前
干货!Ubuntu 快速部署 Cloudreve :打造全功能私有云盘
ai
冬奇Lab6 小时前
5种来自谷歌的Agent Skill设计模式:减少Token浪费,精准触发正确行为
人工智能·agent
带刺的坐椅8 小时前
Spring-AI 与 Solon-AI 深度对比分析报告
java·spring·ai·llm·solon·spring-ai·solon-ai
李庆政3709 小时前
Cozi工作流 剪映 ai批量生成短视频教程
ai·短视频·剪辑·剪映·cozi·扣子编程
竹之却9 小时前
【Agent-阿程】OpenClaw 2026.4.1 版本更新与使用体验
agent·openclaw
View121389 小时前
在 .NET 中使用 Moonshot Kimi + AgentFramework:从 SDK 到 Agent 的完整实践
c#·agent·kimi
L-影10 小时前
下篇:tool的四大门派,以及它到底帮AI干了什么
人工智能·ai·tool