给 10 万 Star 的 Hermes 装个记忆外挂,AI 终于能越用越聪明了。

最近发现一个很有意思的现象。

大量用户在讨论从 OpenClaw 切到 Hermes Agent。我周围好几个朋友也切了,说是回不去了。

我自己用了一个多月,确实好使。

今天来聊聊 Hermes 本身,以及记忆张量 MemTensor 团队推出的一个 Hermes 本地记忆插件,可以让记忆存得聪明,记忆找得准。

把体验拉到了另一个层面。

01、Hermes Agent 是什么

Hermes Agent 是 Nous Research 开源的一个自主 AI Agent 框架,目前在 GitHub 上已经拿了 10 万多 Star。

可以理解成 OpenClaw 的竞品。

Nous Research 在开源圈挺有名的,之前发布过 Hermes 系列微调模型,在 HuggingFace 上下载量很大。

这次做的 Hermes Agent,核心思路就一句话:一个部署在你自己设备上的 AI Agent,用得越久越强。

拥有自我进化的学习循环、记忆机制、40 多个聊天平台接入。

02、用久了发现一个问题

整体来说 Hermes 确实好使, Skill 自动生成那个功能很实用,做过的活儿不用再教第二遍。

但用着用着我就发现一个问题:它记得住,但记得乱。

举个例子,我前阵子跟它说我最近在减肥,每天控制在 1800 大卡。

过了一周实在扛不住了,跟它说放弃减肥了恢复正常饮食。

结果下次让它帮我规划周末安排,它还是给我推荐低卡食谱:因为两条记忆都在,它分不清哪个是最新的。

这种事遇到多了就挺烦的。

你跟 Agent 聊得越多,它积累的信息就越多,但这些信息之间的关系它处理不了。

重复的、过时的、矛盾的内容全部堆在一起,时间长了记忆库就变成了一个大杂烩。

Hermes 原生的做法是把每轮对话直接存到 SQLite 里,检索的时候做文本匹配。

同一个信息在不同对话里反复提到,记忆库里就会出现大量重复条目,检索出来的东西信噪比越来越差。

然后我就在想,有没有什么东西能帮 Hermes 把记忆管起来。

结果还真让我找到了。

记忆张量 MemTensor 团队出了一个 Hermes 本地记忆插件。

记忆张量 MemTensor 一直在做 AI 记忆方向,他们有个开源项目叫 MemOS,目前在 GitHub 上拿了 8400 多 Star。

这次出的插件就是把 MemOS 的记忆能力直接接到 Hermes 上。

完全跑在本地,数据不用上传任何云服务。

bash 复制代码
开源地址:https://github.com/MemTensor/MemOS/tree/main/apps/memos-local-plugin

03、记忆不是存得多就好

MemOS 插件解决的核心问题就是两个:记忆存得聪明,记忆找得准。

先说存。

插件在写入环节加了一整套处理:语义分片 → LLM 摘要 → 向量化 → 智能去重。

去重这个环节我觉得是整个插件最有价值的部分。

它不是简单的文本比对,而是把当前要存的内容和已有的相似记忆做对比,让 LLM 判断到底是重复的、需要更新的、还是全新的。

回到前面减肥那个例子。

我先说了在减肥,后来又说放弃了。

Hermes 原生会存两条独立记录,MemOS 插件会自动识别出第二条是对第一条的更新,把两条合并成一条,还记录了合并历史。

这种处理方式让记忆库始终保持在干净的状态,不会因为用久了就变得越来越乱。

再说找。

Hermes 原生用的是 SQLite 文本搜索,关键词对不上就搜不到。

你问它上次推荐了什么好吃的地方,它可能搜不到,因为原文写的是某某餐厅味道不错,关键词完全对不上。

这个体验其实非常差。明明存了,但就是搜不到,那存了有什么用。

MemOS 插件上了混合检索引擎 ,两个通道同时跑:全文搜索加向量语义搜索。然后做融合排序和多样性去重,再加上时间衰减,最后还有一层相关性过滤。

效果就是,你搜上次推荐了什么好吃的地方,即使原文里没有推荐和好吃这两个词,语义通道也能把相关记忆捞出来。

而且每轮对话开始的时候,系统会自动用你的最新消息做一次预检索,把相关记忆注入上下文。如果没命中,还会提示 Agent 自己去主动搜索。

这个体验提升是能直接感受到的。

之前问 Hermes 一些历史问题经常得到模糊的答案或者直接说记不清了,装了插件之后明显准了很多。

04、技能也能进化了

Hermes 原生的技能生成用的是跑 Agent 的那个模型,没办法单独指定更强的模型来做评估。

这就导致一些技能的质量参差不齐,有时候生成的技能根本没法直接用。

MemOS 插件支持三级独立模型配置:Embedding 用轻量模型、摘要用中等模型、技能生成可以用最强的模型。

而且加了一层规则过滤加 LLM 评估,只有可重复、有价值的任务才会生成技能。

还有个降级机制,技能模型挂了自动降到摘要模型,再挂了降到 Hermes 原生模型。整个过程不需要手动干预。

05、多 Agent 也能协同了

这个功能我目前用得不多,但觉得思路挺有意思的。

如果你跑了多个 Hermes 实例分别处理不同任务,它们各自积累的经验彼此完全不知道。

MemOS 插件加了两层协同能力。

第一层是同一台机器上的多 Agent,拥有独立记忆空间,但可以共享公共记忆和技能。

第二层是跨机器的 Hub-Client 架构,私有数据始终留在本地,只有明确共享的内容对团队可见。

对于小团队来说挺实用的,每个人用的 Agent 学到的东西可以共享,不用每个人从头积累。

06、自带管理面板

装完插件之后会多一个 Web 管理面板,默认地址是 http://127.0.0.1:18901

里面有 7 个管理页面,覆盖了日常需要的所有操作:

记忆浏览和搜索、任务管理、Skill 管理、分析统计、工具调用日志、数据导入、在线配置。密码保护,只允许本地访问。

至少不用全靠命令行来管理记忆了。

07、怎么装

MemOS 插件完全本地化,零云依赖,数据存在本机 SQLite 里。

前置条件就三个:Node.js 大于等于 18、Python 3、Hermes Agent 已经装好。

一行命令搞定:

bash 复制代码
curl -fsSL https://raw.githubusercontent.com/MemTensor/MemOS/openclaw-local-plugin-20260408/apps/memos-local-plugin/install.sh | bash

安装器会自动检测环境,缺 Node.js 会帮你装。

然后下载插件包、安装依赖、创建软链接到 Hermes 插件目录、更新配置文件、验证插件加载,最后启动 Bridge 守护进程和 Memory Viewer。

装完之后直接 hermes chat,每次对话自动存入记忆。打开 http://127.0.0.1:18901 就能看到管理面板了。

ruby 复制代码
上手文档:https://memos-docs.openmem.net/cn/openclaw/hermes_local_plugin

装了大概一周多了,说几点真实的使用感受。

好的方面:记忆检索的准确率确实提升明显,之前经常搜不到的历史信息现在基本都能找到了。

记忆去重也确实有用,不会出现同一个信息存了七八条的情况。

不太满意的地方:这个插件毕竟还需要跑模型做摘要和向量化,第一次用的时候会多消耗一些 token。

另外如果你只是偶尔用一下 Hermes,可能感受不到太大差别,这个插件的优势是在长期使用中逐渐体现出来的。

总的来说,如果你已经在用 Hermes 并且打算长期用下去,这个插件值得装一下。用一句话概括就是:Hermes 让 Agent 能干活,MemOS 让它越干越聪明。

bash 复制代码
开源地址:https://github.com/MemTensor/MemOS/tree/main/apps/memos-local-plugin
相关推荐
王莎莎-MinerU2 小时前
MinerU 生态全接入:LangChain、Dify、RAGFlow、LlamaIndex 六大框架完整集成指南(2026)
计算机视觉·chatgpt·langchain·pdf·github·aigc
神一样的老师5 小时前
【兆易创新GD32VW553开发板试用】 BSP 从 GitHub 下载与编译指南
单片机·github·rt-thread
DevilSeagull6 小时前
MySQL(1) 安装与配置
java·数据库·git·mysql·http·开源·github
kefon7 小时前
从零搭一个 AI Agent:我选了最省钱的方案
开源·github·agent
FreeBuf_8 小时前
GitHub评论可触发Claude Code、Gemini CLI和GitHub Copilot的提示注入漏洞
github·copilot
fzil0018 小时前
GitHub 项目自动 Star + Issue 监控
人工智能·github·issue
Daydream.V8 小时前
github基础入门及git安装配置
git·github·git学习·github学习
万琛8 小时前
【 GitHub GraphQL 】查询优化
github·graphql
Java_2017_csdn9 小时前
‌IntelliJ IDEA 2026.1 中 Git、GitHub、GitLab 功能对比与实操指南
git·github·intellij-idea