OpenClaw刚火没多久,Hermes Agent又爆了。
说实话,这次我真觉得自己慢了半拍。
3月份在X上刷到它的时候,我点进GitHub看了一眼: "又一个Agent框架。"
然后我就关掉了。
直到发这篇文章前,我又看了一眼------38k stars,还在涨。
推特、Reddit、各种技术社区,到处都在讨论。
我才反应过来,不是它在跟风,是我看走眼了。
我是子昕。
这几天我专门花时间,把 Hermes Agent 和Anthropic、OpenAI关于 Harness Engineering 的文章都啃了一遍。
最后搞明白了一件事:
Hermes Agent之所以爆火,不是因为它更强,而是因为它代表了一个新方向:
AI,开始学会给自己造"缰绳"了。
这篇文章,我想把这事儿讲清楚。
先说清楚:什么是Harness Engineering?
在聊Hermes Agent之前,必须先搞懂一个词:Harness Engineering(驾驭工程)。
这个词是Anthropic和OpenAI在26年初提出的,现在正在成为AI工程领域的新关键词。
但它到底是什么意思?
先别被这个词吓到。
你可以把它理解成一句人话:
不是让AI更聪明,而是让AI更可控。
一个更直观的类比
想象你有一匹马:
- 跑得很快(模型能力很强)
- 但不太听话(容易跑偏)
以前我们的做法是:
- 拼命写提示词(Prompt Engineering)
- 告诉它:往左、往右、停下来
但问题是:
一旦任务变复杂,这种"喊话式控制"就失效了。
现在的做法变了:
给它套上一整套"马具"(Harness)
这个马具不是限制它,而是:
让它在可控范围内,稳定发挥能力
所以 Harness Engineering 本质在干嘛?
一句话总结:
不优化模型本身,而是优化模型运行的环境。
具体怎么做?
可以拆成 5 个组件(你不用死记,但理解很关键):
- 指令层(做什么) :清晰定义任务目标
- 约束层(不能做什么) :设定边界,防止跑偏
- 反馈层(做得对不对) :让AI知道哪里错了,及时纠正
- 记忆层(记住什么) :避免每次都从零开始
- 编排层(怎么协作) :协调多个任务或多个Agent
把这5个东西组合起来,本质就是:
给AI一套"长期工作"的操作系统
为什么这件事现在突然重要了?
因为:AI已经强到"容易失控"了。
Anthropic在他们的实验中发现,即使是最强的模型(Opus 4.5),在没有Harness的情况下,让它自主开发一个完整的Web应用,也会出现这些问题:
- 一口气想做太多:试图一次性把所有功能都实现,结果context用完了,代码写了一半就卡住了
- 过早宣布胜利:做了几个基础功能,看了一眼就觉得"差不多了",宣布任务完成
- 不记得之前做了啥:每次context重置后,上一轮做的事情全忘了,又要从头猜
换句话说:
不是它不够强,而是它不稳定。
OpenAI在他们的实验中更激进:他们让AI Agent完全自主开发一个百万行代码的产品,人类完全不写代码,只设计Harness。
结果是:只要Harness设计得好,Agent真的能做出能用的东西。
所以现在整个行业在做一件事:
不是让AI更聪明,而是让AI"靠谱"。
而 Hermes Agent 做了一件更激进的事:
它不只是给AI套缰绳,而是让AI自己学会造缰绳。
下面我们具体讲,它是怎么做到的。
Hermes Agent:第一个把"套缰绳"做成产品的
现在说回Hermes Agent。
Hermes Agent是Nous Research开发的开源AI Agent框架,2月份才发布,现在GitHub上已经38k stars。
它火的原因不是因为它又做了一个"能调工具的Agent"------这种东西现在一抓一大把。
它火,是因为它第一个把Harness Engineering的理念产品化了,而且做了一件更疯狂的事:让Agent自己给自己造缰绳。
Hermes Agent到底是什么?
用一句话说:Hermes Agent是一个会自我进化的AI Agent框架。
这是什么意思?
普通的Agent,你给它一个任务,它执行完就结束了。下次再来,它还是从零开始,你又得重新教它一遍。
Hermes Agent不一样。它会:
- 记住你的偏好:你喜欢什么样的代码风格、什么样的沟通方式
- 总结方法论:完成任务后,自动把"怎么做"提炼成Skill文件
- 自我改进:根据你的反馈,自动修改自己的行为规范
用人话说:它越用越聪明,越用越懂你。
Hermes Agent:它到底"会成长"在哪里?
前面说的都比较抽象,我们直接看一个真实场景。
假设你让 Hermes Agent 做一件很常见的事:
把一个项目部署到服务器上。
第一次:它其实也会"犯错"
第一次做的时候,它和普通Agent差不多:
- 会试错
- 会踩坑
- 可能端口冲突、环境变量没配好
- 甚至中间还会卡住
这很正常。
但关键不在这里。
不一样的地方,从"做完之后"开始
普通Agent流程是这样的:
做完 → 结束 → 下次重新来
Hermes Agent不是。
它在完成任务后,会多做一步:
复盘:我刚刚是怎么做成这件事的?
然后,它会把这个过程,自动总结成一份"操作说明书"。
第二次:它开始"少犯错"
当你下次再让它做类似的事情时,它会:
- 想起上次端口冲突的问题
- 记得你用的是哪种服务器(比如DigitalOcean)
- 按照自己总结的流程一步步执行
结果就是:
它不再是"重新做一遍",而是"复用经验"。
第三次之后:它开始"像个人了"
更关键的是,如果你中间给它反馈:
"你写的部署脚本,注释太少了。"
它不会只改这一次。
它会做一件更狠的事:
直接修改自己的"做事规则"。
比如在它的"写代码流程"里,加上一条:
- 所有函数必须有清晰注释
从这一刻开始:
它以后写的所有代码,都会自动符合你的要求。
拆开来看,Hermes到底做了哪三件事?
上面这个过程,其实对应三个核心能力:
1、学习循环:它会复盘
不是做完就结束,而是:
做完 → 总结 → 变成经验 → 下次直接用
2. 三层记忆:它真的"记得住"
- 短期记忆:这次任务发生了什么
- 长期记忆:你的习惯、偏好
- Skill记忆:怎么把事情做好
组合起来就是一句话:
它不是记住答案,而是记住"你是谁 + 事情该怎么做"。
3. Skill自进化:它会改自己的行为
传统Agent:
规则 = 人写的
Hermes Agent:
规则 = 自己总结 + 根据反馈自动修改
一句话总结 Hermes 的本质
如果只用一句话说清楚它在干嘛:
普通Agent是在"完成任务",而Hermes是在"积累经验"。
这也是为什么它会爆火:
它不只是一个工具,而是一个会越来越懂你的"长期助手"。
Hermes Agent vs OpenClaw:本质区别是什么?
很多人会问:Hermes Agent和OpenClaw有什么区别?为什么OpenClaw火了之后,Hermes还能火起来?
答案是:它们解决的根本不是同一个问题。
OpenClaw:配置即行为
OpenClaw的核心理念是"配置即行为"。
你写一个SOUL.md配置文件,定义Agent的性格、行为规范、工作流程,然后Agent照着配置执行。
OpenClaw的核心价值是:可预测、可审计、可复制。
你知道它会做什么,不会做什么。所有行为都写在配置里,清清楚楚。这对企业场景特别重要,因为企业需要的是标准化、可控的流程。
类比:OpenClaw像给员工写SOP(标准操作流程),他们照着做就行。
Hermes Agent:自我进化
Hermes Agent的核心理念是"自主学习"。
你不需要事先写好所有规则。Agent会在使用过程中自己总结规则,自己优化行为。
Hermes的核心价值是:自主性、能学习、会成长。
它适合的是那些需要长期积累、持续优化的任务。你不想反复教它做事,你想培养一个"懂你"的助手。
类比:Hermes像培养一个实习生,他会从错误中学习,越来越靠谱。
对比表:关键区别
我整理了一个对比表,把核心差异列出来:
| 维度 | OpenClaw | Hermes Agent |
|---|---|---|
| 核心概念 | 配置即行为(SOUL.md) | 自我进化学习循环 |
| 记忆 | 跨会话记忆 | 三层记忆(会话+持久+Skill) |
| Skill维护 | 手动编写和维护 | Agent自动创建和改进 |
| 用户建模 | 不做用户建模 | Honcho系统推断用户偏好 |
| 多平台访问 | Gateway网关,50+平台 | Gateway网关,12+平台 |
| 生态规模 | ClawHub 49000+社区Skill | MCP生态 6000+ + 40+内置工具 |
| 部署方式 | 本地/Docker/VPS/云托管 | 本地/Docker/VPS |
| Skill互通 | agentskills.io标准 | agentskills.io标准 |
看完这个表,你可能会发现一个有意思的事:它们不是竞争关系,而是互补的。
- OpenClaw强调"连接一切",让你在各种平台上统一调用Agent
- Hermes强调"自我成长",让Agent在使用中越来越懂你
如果用工具做比喻:
- OpenClaw是"瑞士军刀":标准化、多功能、可预测
- Hermes是"学徒":会学习、会成长、越用越顺手
而且,这两个项目都采用了agentskills.io标准,Skill文件是可以互通的。也就是说,你在Hermes上积累的Skill,可以导入到OpenClaw;反过来也一样。
这对普通人意味着什么?
讲了这么多技术细节,我们把问题说得更直接一点:
这跟你有什么关系?
以前我们用AI,是这样的:
- 打开ChatGPT
- 问一个问题
- 得到答案
- 关闭
下次再用:
从零开始。
但现在,这件事开始变了。
像 Hermes Agent 这样的系统,本质上在做一件事:
让AI"记住你",并且在使用中不断变得更懂你。
换句话说:
AI正在从"工具",变成"可以培养的助手"。
这个变化有多大?
你可以这样理解:
以前:
你在用一个搜索引擎
现在:
你在培养一个长期为你工作的"人"
而这个"人":
- 会记住你的习惯
- 会总结你的工作方式
- 会根据你的反馈不断改进
而且,24小时在线。
一个更现实的问题
如果这件事成立,会发生什么?
最直接的影响是:
未来的差距,不只是"你会不会用AI",而是------
你有没有"训练出一个属于自己的AI"。
有人还在:
- 每天重复写提示词
- 每次从头教AI做事
也有人已经在:
- 积累自己的Skill
- 让AI越来越懂自己的工作方式
这两种人,半年之后的效率差距,会非常夸张。
我自己的判断
说实话,我现在越来越觉得:
Harness Engineering,很可能是2026年最重要的一个AI工程关键词。
我们过去几年,一直在优化三件事:
- Prompt(提示词)
- Context(上下文)
- Model(模型能力)
但现在,重心在发生变化:
从"怎么用AI",变成"怎么让AI稳定地为你工作"。
而 Hermes Agent,只是一个开始。
写在最后
这篇文章只是第一篇,先把一件事讲清楚:
AI,正在从"听话",走向"自我约束"。
接下来我会继续实测:
- 实际部署 Hermes Agent
- 看它的"自我学习"到底有多靠谱
- 对比 OpenClaw 和 Hermes 的真实使用体验
如果你也在关注这条线,可以点个关注。
我会把踩过的坑、真实体验,一点点写出来。
更多内容,欢迎关注微信公众号【子昕AI编程】~