memory

ToTensor2 天前
人工智能·agent·memory
Mem0 深度解析:智能记忆层的架构原理Mem0(发音为"mem-zero")是一个专为 AI 代理和助手设计的智能记忆层。本文深入剖析其 CRUD(创建、读取、更新、删除)全流程,重点揭示其 LLM 驱动的记忆提取流水线、多信号混合搜索、以及非阻塞容错设计。
comedate3 天前
memory·openclaw·self-improving·skill 技能分析
[OpenClaw][Skills]Self-Improving-with-Reflection 的技能分析self-improving-with-reflection 是一个零依赖的自改进 Agent 技能,通过本地文件系统实现持久化记忆和自我反思机制。该技能允许 Agent 从用户修正和自身反思中学习,持续优化执行质量。
一个处女座的程序猿6 天前
llm·agent·memory
LLMs之Memory之MIA:《Memory Intelligence Agent》翻译与解读LLMs之Memory之MIA:《Memory Intelligence Agent》翻译与解读导读:这篇论文的核心贡献,是把深度研究代理的“记忆”从简单的长上下文检索,升级为可压缩、可训练、可在线进化的双通道系统;MIA 通过 Manager-Planner-Executor 架构、交替 RL 和 test-time learning,把历史经验真正转化为规划能力与执行能力,因此在多模态、文本、多跳推理以及无监督自演化场景里都表现出稳定而明显的提升。
一个处女座的程序猿12 天前
agent·memory·everos
Agent之Memory:EverOS的简介、安装和使用方法、案例应用之详细攻略Agent之Memory:EverOS的简介、安装和使用方法、案例应用之详细攻略目录EverOS的简介
一心同学15 天前
人工智能·agent·memory
从工程视角看 Agent Memory:存什么、怎么取、何时忘目录背景一、先把问题说清楚:Agent 为什么需要 Memory二、很多人一上来就做错了:Memory 不是把对话存进向量库
是小蟹呀^18 天前
python·langchain·memory
【总结】LangChain中如何维持记忆目录1.短期记忆2.长期记忆3.记忆管理AgentState通过Checkpointer对象来保存首先需要一个配置id
UWA1 个月前
memory·animation·spine
小游戏的Spine数量过多开销大1)小游戏的Spine数量过多开销大,怎么办 2)关于在AssetBundle中同时看到SpriteAtlas图集纹理和小图是否合理
oscar9991 个月前
memory·claude.md
Claude Code 如何记住项目:两种记忆机制全解析每次与 Claude Code 开始一段新对话,它都像一位初次见面的同事——对之前的合作毫无印象。这在开发中会带来困扰:明明上次已经教过它项目的构建命令,这次又得重复一遍。
oscar9991 个月前
memory·配置·rule·claude code·sikil
探秘Claude Code的“.claude”目录:那些藏在背后的配置与记忆如果你曾经用过Claude Code,或许会发现项目根目录下突然多出一个名为.claude的文件夹,又或者在User Home目录下也存在一个同样的隐藏目录。对于大多数开发者而言,这只是一个不起眼的配置文件夹,但它其实大有玄机——它是Claude Code理解项目、记住偏好、甚至执行复杂任务的核心所在。
UWA1 个月前
性能优化·memory·游戏开发·animation
如何降低Animator的调用次数1)如何降低Animator的调用次数 2)为什么UI相关堆内存对象和纹理资源都占用了较大内存没有释放
self-motivation1 个月前
agent·memory·rag
openclaw架构分析(三) -------------- memory实现分析本文基于 openclaw 仓库的源码,对其 Memory 系统(向量检索 + 会话记忆)进行整体梳理,重点说明:
roamingcode3 个月前
运维·自动化·agent·memory·cursor·持久化记忆
Cursor-memory-cli 自动化记忆提取的完整实现一个用于安装和配置 Cursor Memory 系统的命令行工具。Cursor Memory 是一个持续学习系统,可以从 Cursor 会话中提取结构化记忆,并将其编码为可查询的 JSON 记录,供跨会话调用。
roamingcode3 个月前
人工智能·agent·memory·cursor·会话记忆提取
Cursor Memory 实战:如何终结 AI 助手的“金鱼记忆”目标读者:使用 Cursor/Claude Code 等 AI 辅助开发的工程师,特别是那些厌倦了重复向 AI 解释项目上下文、架构决策和偏好设置的开发者。 核心价值:掌握一套自动化的“记忆捕获”工作流,将临时的会话交互转化为永久的项目知识库。 阅读时间:8 分钟
wangmengxxw3 个月前
人工智能·大模型·memory·springai
SpringAi-memorySpringAI 基于 ChatMemory 实现对话的记忆,也就是上下⽂内容的存储、发送请求时候附带。 ChatMemory 表示聊天对话记忆的存储,它提供添加消息到对话、从对话中检索消息以及清除对话历 史的⽅法。
cr72583 个月前
ai·memory
使用 seekdb + PowerMem 构建多模态智能记忆系统 MemBox在与 AI 应用交互时,你有没有经历过这样的场景:每次新会话都要重新介绍自己是谁、在做什么项目,刚才聊过的偏好转眼就被忘得一干二净?这是因为大多数大语言模型本质上是无状态的——每一次对话都是从零开始,上下文窗口有限且无法持久化。
M宝可梦3 个月前
transformer·memory·hash·moe·记忆·deepseek·engram
Engram: DeepSeek最新工作解读1.从MLA,到NSA,DSA(lightning Indexer),DeepSeek做了很多稀疏化的工作,从计算层面更加高效,节省,试图压榨尽所有的硬件资源; 2.从transformer到MoE------谁来算 但是对于一些简单问题,稠密模型可能存在资源浪费的情况,因为需要不加区分的过一遍所有参数,这对于小模型或许可以接受,但是对于超大量参数的模型难以忍受,因此转为只对部分参数激活; 3.从MoE到Engram------一定程度解耦计算和记忆 过去的transformer只有显示的链接,计算,没有
UWA3 个月前
memory·rendering
如何使Bloom只局部地作用于特效以提高性能1)如何使Bloom只局部地作用于特效以提高性能 2)为什么物理内存一直上涨这是第460篇UWA技术知识分享的推送,精选了UWA社区的热门话题,涵盖了UWA问答、社区帖子等技术知识点,助力大家更全面地掌握和学习。
X.Cristiano4 个月前
agent·memory
MemR3:基于LangGraph的反思推理、记忆和检索的RAG框架在构建大模型智能体(LLM Agents)时,记忆系统是其核心。无论是为了记住用户的偏好,还是为了处理长达数月的对话历史,我们通常会给 AI 挂载一个“外部存储器”。
友莘居士5 个月前
区块链·memory·solidity·storage·calldata·数据位置
solidity中数据位置storage、memory、calldata的区别在 Solidity 中,storage、memory 和 calldata 是三种关键的数据位置,它们决定了变量的存储位置、生命周期和行为。
UWA5 个月前
性能优化·memory·游戏开发
如何排查优化URP内置Shader冗余1)如何排查优化URP内置Shader冗余 2)运行时Shader内存下降的原因这是第454篇UWA技术知识分享的推送,精选了UWA社区的热门话题,涵盖了UWA问答、社区帖子等技术知识点,助力大家更全面地掌握和学习。