大模型的记忆与管理及长期记忆实现方式

Session 状态管理:

  1. 基本概念: 是指在大模型与用户交互过程中,对每个会话进行唯一标识,并记录和跟踪会话的相关信息,如对话历史、用户当前状态等,以便在多轮对话中保持上下文的连贯性和一致性。

  2. 实现方式: 通常会为每个新对话分配唯一的会话 ID,通过数据库(如 Redis)等存储介质来隔离不同对话的上下文。系统采用滑动窗口策略保留最近的对话轮次,降低单次处理的 token 量,同时将完整历史记录缓存至外部存储。当用户发起新请求时,仅加载其会话的最新片段至模型上下文窗口。

  3. 重要性:在多轮交互中准确维护和更新对话状态,能确保模型对历史信息的理解不丢失、不混淆,尤其是在面对话题跳跃、指代消解、状态变更等复杂情况时,仍能保持逻辑连贯与语义一致,直接影响用户体验与系统可靠性。

LongContext(长上下文处理)

  1. 基本概念:LongContext 长上下文处理是指大模型能够有效处理较长的文本上下文,突破传统模型上下文窗口大小的限制,从而能够更好地理解和生成与长篇文档、长时间对话等相关的内容。

  2. 实现技术:包括对注意力效率的优化,如采用稀疏 / 线性 / 混合注意力机制等;上下文窗口扩展技术,如 StreamingLLM 的滑动窗口和逐出策略;使用外推位置嵌入的有效长度泛化;以及推测解码技术,通过使用更小、更快的 "草稿" 模型提前生成候选词元,加快生成速度等。

  3. 重要性:长上下文处理能力使大模型能够处理更复杂的任务,如长篇文档分析、多轮对话中的长期上下文理解等,拓展了大模型的应用场景和能力边界。

长期记忆(关键事件 / 用户偏好存储检索)

  1. 基本概念:长期记忆是指大模型能够存储历史交互、用户偏好等信息,类似于人类的长期记忆,使模型能够在后续的交互中利用这些信息,实现自我进化和更个性化的服务。

  2. 实现框架:目前有多种创新框架,如 TIM 框架,它使 LLMs 能够维护一个随对话流不断演进的记忆库,用于存储历史思考痕迹,包含响应生成前的检索相关思考和响应生成后的事后反思并更新记忆库两个关键阶段;CoPS 框架则通过认知个性化搜索,整合大语言模型与高效记忆机制,实现对用户偏好等信息的有效存储和检索。

  3. 重要性:长期记忆系统可以让模型更好地理解用户的个性化需求和历史背景,从而提供更准确、更符合用户期望的回答,提升用户体验和模型的实用性。

长期记忆实现方式:

①检索增强生成(RAG)及其变体:这是目前最成熟、应用最广泛的 "长记忆" 方案。核心原理:将长期信息(如用户偏好、历史对话、领域知识)分块编码为向量,存入外部向量数据库;当处理新查询时,检索与查询语义最相关的向量片段,作为上下文注入模型生成回答。

②认知模拟记忆框架:模仿人类记忆分层机制

通过划分 "短期 / 长期 / 感官记忆" 等模块,模拟人类认知流程,实现记忆的精细化管理。

代表方案 1:CoPS 框架

复制代码
核心设计:整合 "感官记忆 - 工作记忆 - 长期记忆" 三层结构:
感官记忆:快速识别 "再查找行为"(如用户重复查询历史内容),即时返回结果;​
工作记忆:分析近期交互,结合 LLM 构建临时用户画像;​
长期记忆:分为显式记忆(用户主题兴趣,如 "喜欢科幻电影")和隐式记忆(潜在特征,如 "职业为程序员"),用键值对存储,支持个性化搜索排序。​
优势:解决传统搜索 "千人一面" 问题,零样本场景下优于基线模型。

代表方案 2:MaLP 框架

复制代码
核心设计:面向医疗场景,提出双过程增强记忆(DPeM) 机制:​
预演过程:从对话中提取信息存入工作记忆,通过 "协调器" 迭代总结;​
执行过程:根据信息访问频率,将工作记忆内容分配至短期记忆(STM,近期医疗症状) 或长期记忆(LTM,慢性病史、过敏史);​
补充优化:结合参数高效微调(PEFT),在低计算成本下让模型适配用户个性化医疗需求,并开源医疗对话数据集。

③动态记忆库:支持 "存储 - 更新 - 遗忘" 全生命周期

代表方案 1:TIM 框架

复制代码
核心创新:存储 "模型思考痕迹" 而非原始对话文本,避免重复推理:​
响应前:从记忆库检索历史思维单元(如 "用户是素食者→避免乳制品"),直接生成回答,无需重复分析原始对话;​
响应后:通过 "事后反思(Post-think)" 生成新思维片段,结合插入、遗忘、合并操作更新记忆库(如合并重复兴趣标签,删除矛盾信息);​
效率优化:采用局部敏感哈希(LSH)检索,降低长对话场景下的 O (n²) 复杂度。

代表方案 2:MemoryBank 框架

复制代码
  * 核心创新:引入**艾宾浩斯遗忘曲线**,实现 "选择性遗忘":
    * 记忆存储:分层记录 "对话细节(带时间戳)→每日事件摘要→全局用户画像";
    * 记忆更新:用指数衰减模型动态调整记忆权重 ------ 高频访问的记忆(如用户反复提及的偏好)$S$增加、$t$重置,降低遗忘概率;低关联记忆随时间自然衰减;
  * 适用场景:AI 伴侣、心理咨询等需要长期跟踪用户性格、情绪的场景。

④智能体专用记忆系统:端到端记忆管理

针对 AI 智能体的实时交互需求,设计轻量、高效的专用记忆架构,支持动态提取与冲突解决。

代表方案:Mem0 与 Mem0-g

复制代码
Mem0(向量库版):​
两阶段流程:​
提取阶段:结合 "全局对话摘要 + 近期消息",用 LLM 提炼关键事实(如 "用户不食用乳制品");​
更新阶段:检索向量库中相似记忆,通过 LLM 自主决策 "添加(ADD)/ 更新(UPDATE)/ 删除(DELETE)/ 不操作(NOOP)",避免冗余与冲突;​
核心优势:相比全上下文方法,延迟降低 91%,Token 成本节省 90%,兼顾效率与准确性(综合质量评分 66.88%,接近全上下文的 72.90%)。​
Mem0-g(知识图谱版):​
升级设计:将记忆存储为 "实体 - 关系三元组"(如 "用户 A - 住在 - 上海"),支持时间维度冲突解决(如标记旧关系为 "过时" 而非直接删除,保留时间线索);​
适用场景:需要深度理解关系(如事件时序、人物关联)的任务,如智能助手的多会话连贯交互。

⑤ 参数化记忆:微调注入长期信息

复制代码
核心原理:将长期记忆(如用户固定偏好、领域规则)转化为训练数据,对模型进行全参数 / 部分参数微调,使记忆隐式融入模型权重。​
文档关联方案:​
MaLP 框架的 PEFT 优化(文档 1):医疗场景中,通过 "少量用户历史对话 + PEFT" 微调模型,避免全参数训练的高成本,同时让模型适配患者个性化需求(如糖尿病患者的饮食建议)。​
局限性:存在 "灾难性遗忘"(新记忆覆盖旧记忆)、记忆不可编辑(需重新微调更新)的问题,仅适用于记忆稳定、更新频率低的场景(如固定用户的长期服务)。

⑥神经记忆结构:模型内置可学习记忆单元

在 Transformer 架构中加入专用记忆模块,支持动态读写,实现 "模型内长期记忆"。

复制代码
技术思路:在 Transformer 中嵌入多层 MLP 构成的 "键值对记忆单元":
  * 记忆更新:通过在线学习调整记忆参数,结合遗忘门($\alpha_t$)和动量机制($\eta_t$),动态遗忘低价值信息、强化重要记忆;
  * 记忆检索:输入查询通过 MLP 映射为 Key,匹配记忆库中的 Value,直接作为上下文参与注意力计算;
现状:目前处于实验室阶段,尚未有大规模落地框架,但文档 1 中 TIM 框架的 "显式记忆参数区" 设计(独立存储思维轨迹)可视为其简化思路。
实现方式 核心存储介质 优势 局限性 适用场景
RAG 及 HippoRAG 向量库 / 知识图谱 支持海量知识,检索效率高 动态更新弱,多跳推理需优化 文档问答、领域知识调用
CoPS/MaLP(认知分层) 分层记忆模块 适配人类认知,个性化精准 架构复杂,需领域适配 个性化搜索、医疗助手
TIM/MemoryBank(动态库) 专用记忆库(键值) 避免重复推理,支持选择性遗忘 依赖 LLM 反思能力,成本较高 AI 伴侣、多轮对话机器人
Mem0/Mem0-g(智能体系统) 向量库 / 知识图谱 实时交互友好,冲突解决强 需集成 LLM 工具调用能力 实时智能助手、会话式 AI
参数化记忆(PEFT) 模型权重 无需外部依赖,响应速度快 灾难性遗忘,更新成本高 固定用户长期服务、领域规则注入
神经记忆结构(Titan) 内置 MLP 记忆单元 端到端整合,记忆利用率高 技术不成熟,落地案例少 实验室级长序列任务

项目中可选 RAG 及 HippoRAG , Mem0/Mem0-g, 或者LangMem( LangGraph 深度集成)

相关推荐
weixin_307779135 小时前
C#程序实现将Teradata的存储过程转换为Azure Synapse Dedicated SQL pool的存储过程
数据库·数据分析·c#·云计算·azure
深眸财经5 小时前
蓝思科技Q3营收创同期新高,人形机器人及四足机器狗出货规模攀升
人工智能·科技·机器人
折翼的恶魔6 小时前
SQL 189 统计有未完成状态的试卷的未完成数和未完成率
数据库·sql
电鱼智能的电小鱼6 小时前
基于电鱼 ARM 工控机的井下设备运行状态监测方案——实时采集电机、电泵、皮带机等关键设备运行数据
arm开发·人工智能·嵌入式硬件·深度学习·机器学习·制造
慧星云6 小时前
魔多 AI 支持 Seedance 系列在线生成 :赠送免费生成额度
人工智能
yangmf20406 小时前
如何使用 INFINI Gateway 增量迁移 ES 数据
大数据·数据库·elasticsearch·搜索引擎·gateway
诸葛务农6 小时前
光刻胶性能核心参数:迪尔参数(A、B、C)
人工智能·材料工程
大千AI助手6 小时前
Householder变换:线性代数中的镜像反射器
人工智能·线性代数·算法·决策树·机器学习·qr分解·householder算法
许泽宇的技术分享6 小时前
当 AI Agent 遇上 MCP:微软 Agent Framework 的“瑞士军刀“式扩展之道
人工智能·microsoft