【AI】如何设计Agent的记忆系统?

记忆模块是Agent打破LLM上下文窗口限制、实现持续学习和个性化的关键。

设计Agent的记忆系统可以仿照人类的记忆机制。

分为短期记忆和长期记忆。

1、短期记忆(Short-Term Memory):

  • 作用 :存储当前任务的上下文信息 ,包括即时对话历史、中间的思考步骤、工具的调用结果等。
    它是Agent进行连贯思考和行动的基础。
  • 实现方式
    • LLM的上下文窗口(Context Window):这是最直接的短期记忆载体。所有最近的交互都会被放入Prompt中。
    • 缓冲区(Buffers): 在Agent框架中(如LangChain)中,通常会使用不同类型的缓冲区来管理对话历史。例如:
      • ConversationBufferMemory:存储完整的对话历史。
      • ConversationBufferWindowMemory:只保留最近的K轮对话。
      • ConversationSummaryBufferWindowMemory:在历史对话过长时,动态地用LLM进行总结,节省Token。
    • 暂存器(Scratchpad) :用于记录ReAct框架 中"Thought-Action-Observation"轨迹,是Agent进行逐步推理的关键。

2、长期记忆(Long-Term Memory):

  • 作用 :存储跨越任务和时间维度的信息。如用户的个人偏好、过去的成功/失败经验、领域知识等,
    它使得Agent能够 学习和成长。
  • 实现方式与外部工具:长期记忆的核心是"存储"和"检索",通常需要借助外部技术。主流的是RAG。
  • 核心技术向量数据库(Vector Database)
  • 工作流程

a.存储(Storing/Writing) :当Agent获得一个有价值的信息(如用户明确给出的偏好、一个成功决解问题的完整流程)时

它会使用一个嵌入模型(Embedding Model) 将这段文本信息转换成一个高维向量。

然后将这个向量及其原始文本存入向量数据库中。

b.检索(Retrieving/Reading): Agent进行规划或决策时,它会把当前任务或问题也转换成一个查询向量。

然后用这个查询向量去向量数据库中进行相似度检索,找出与当前情况最相关的历史记忆。

c.使用(Using): 检索到的记忆(原始文本)会被插入到LLM的Prompt中,作为额外的上下文,来指导LLM做出更明智的决策。

  • 其他技术
    传统数据库/知识图谱:对结构化或关系型数据,使用SQL数据库或图数据库进行存储和精确查询也是一种有效的长期记忆形式。
相关推荐
我是发哥哈6 小时前
三款主流AI视频生成模型商用能力对比与选型分析
大数据·人工智能·学习·ai·chatgpt·aigc·音视频
想ai抽6 小时前
Agent记忆架构设计剖析系列:原理、权衡与场景适配(claude code设计原理)
agent·claudecode·harness
白熊1886 小时前
【大模型Agent】基于LangGraph搭建 多轮对话客户支持机器人 项目示例
人工智能·大模型·llm·agent·langgraph
白熊1886 小时前
【大模型Agent】LangGraph 深度科普:为智能体而生的“有状态”编排框架
人工智能·langchain·agent·langgraph
terryso7 小时前
深入Open Agent SDK(一):Agent Loop 内核——从 prompt 到多轮对话的完整运转机制
agent
bloglin999997 小时前
使用url请求本地qwen3-embed-0.6B向量大模型示例
ai
ん贤7 小时前
如何设计Agent的记忆模块
agent·rag·记忆机制
智慧物业老杨8 小时前
物业数智化转型实战:从单一服务到综合解决方案的技术落地路径
人工智能·算法·ai
风巽·剑染春水8 小时前
【World Models综述】理解世界还是预测未来?(ACM CS-2025)
人工智能·生成式ai·扩散模型·综述·智能体·世界模型
louisliao_19818 小时前
Research Agent 示例(L3)
agent