【AI】如何设计Agent的记忆系统?

记忆模块是Agent打破LLM上下文窗口限制、实现持续学习和个性化的关键。

设计Agent的记忆系统可以仿照人类的记忆机制。

分为短期记忆和长期记忆。

1、短期记忆(Short-Term Memory):

  • 作用 :存储当前任务的上下文信息 ,包括即时对话历史、中间的思考步骤、工具的调用结果等。
    它是Agent进行连贯思考和行动的基础。
  • 实现方式
    • LLM的上下文窗口(Context Window):这是最直接的短期记忆载体。所有最近的交互都会被放入Prompt中。
    • 缓冲区(Buffers): 在Agent框架中(如LangChain)中,通常会使用不同类型的缓冲区来管理对话历史。例如:
      • ConversationBufferMemory:存储完整的对话历史。
      • ConversationBufferWindowMemory:只保留最近的K轮对话。
      • ConversationSummaryBufferWindowMemory:在历史对话过长时,动态地用LLM进行总结,节省Token。
    • 暂存器(Scratchpad) :用于记录ReAct框架 中"Thought-Action-Observation"轨迹,是Agent进行逐步推理的关键。

2、长期记忆(Long-Term Memory):

  • 作用 :存储跨越任务和时间维度的信息。如用户的个人偏好、过去的成功/失败经验、领域知识等,
    它使得Agent能够 学习和成长。
  • 实现方式与外部工具:长期记忆的核心是"存储"和"检索",通常需要借助外部技术。主流的是RAG。
  • 核心技术向量数据库(Vector Database)
  • 工作流程

a.存储(Storing/Writing) :当Agent获得一个有价值的信息(如用户明确给出的偏好、一个成功决解问题的完整流程)时

它会使用一个嵌入模型(Embedding Model) 将这段文本信息转换成一个高维向量。

然后将这个向量及其原始文本存入向量数据库中。

b.检索(Retrieving/Reading): Agent进行规划或决策时,它会把当前任务或问题也转换成一个查询向量。

然后用这个查询向量去向量数据库中进行相似度检索,找出与当前情况最相关的历史记忆。

c.使用(Using): 检索到的记忆(原始文本)会被插入到LLM的Prompt中,作为额外的上下文,来指导LLM做出更明智的决策。

  • 其他技术
    传统数据库/知识图谱:对结构化或关系型数据,使用SQL数据库或图数据库进行存储和精确查询也是一种有效的长期记忆形式。
相关推荐
进击的野人2 小时前
新手入门:如何接入AI大模型?从零开始的实用指南
人工智能·agent·ai编程
北漂的尘埃2 小时前
初始Skills
ai·agent·skills
KeepSeek2 小时前
Dify平台
ai
Flittly2 小时前
【从零手写 ClaudeCode:learn-claude-code 项目实战笔记】(8)Background Tasks (后台任务)
python·agent
Flittly2 小时前
【从零手写 ClaudeCode:learn-claude-code 项目实战笔记】(7)Task System (任务系统)
python·agent
实在智能RPA3 小时前
2026年企业级实测:企业部署智能体要什么电脑配置?从硬件门槛到架构选型的深度拆解
人工智能·ai·架构
智算菩萨3 小时前
AI赋能游戏创作:基于ChatGPT 5.4的小游戏智能设计与开发全解析
人工智能·python·ai·chatgpt·ai编程
深念Y3 小时前
RAG系统的“记忆幽灵”,记忆更新怎么办
数据库·ai·agent·文档·向量数据库·rag·知识检索
Tzarevich3 小时前
Agent记忆模块:让大模型“记住”你,还能省Token!
后端·langchain·agent