小而精的 HRM 模型

27M 小模型超越 o3-mini-high 和 DeepSeek-R1! 推理还不靠思维链。

2700万参数,就实现了对现有大模型的精准超车

不用预训练补课,还不靠思维链打草稿,仅凭 1000个训练样本,就把极端数独、30x30 迷宫玩得明明白白。

最新提出的开源可复现的分层推理模型 Hierarchical Reasoning Model(下面简称 HRM),模仿大脑的分层处理与多时间尺度运作机制,克服了标准Transfomer的计算局限。

1. 核心是仿脑的双层循环模块设计

1.1 首先是分层循环模块与时间尺度分离

HRM 受大脑皮层区域分层处理和时间分离机制启发,设计了两个相互配合的循环模块:

  • 一个高层模块负责慢节奏的抽象规划
  • 一个低层模块处理快节奏的细节计算

不用明确监督中间过程,一次就能完成推理。

两者在不同时间尺度上协同工作。低阶模块在每个高阶周期内完成多次计算并达到临时稳定状态后,高阶模块才会更新决策,随后低阶模块重置并开启新一轮计算。

这种设计既保证了全局方向的正确性,又提升了局部执行的效率。

1.2 分层收敛机制

普通的循环神经网络常出现过早收敛的问题------计算几步就陷入稳定状态,后续再复杂的任务也无法推进。

而 HRM 中,低阶模块在每轮计算中会收敛到基于当前高阶状态的局部结果,但高阶模块更新后,会给低阶模块设定新的目标,使其进入新的收敛周期。

1.3 近似梯度技术

传统循环模型训练时,需要存储所有中间状态并反向追溯,类似复盘时要回看每一步操作,既耗内存又低效。

HRM 则采用一步梯度近似,只需根据最终状态反推优化方向,如同根据考试结果直接定位薄弱知识点,内存需求恒定且计算高效,更符合生物大脑的学习规律。

1.4 深度监督机制

它受大脑中神经振荡调节学习节奏的启发,引入了阶段性测试。

模型在学习过程中被分成多个阶段,每个阶段结束后立即评估并调整参数,且前后阶段的计算互不干扰。

这种方式能及时纠正偏差,就像学生每学一单元就测试巩固,比期末一次性考试的学习效果更扎实。

2. 自适应计算时间让 HRM 能像人一样灵活分配思考时间

它通过类似评估收益的算法(Q学习),动态决定是否继续计算,在保证准确率的同时避免算力浪费,推理时还能通过增加计算资源进一步提升表现。

3. 总结

在衡量 AI 通用推理能力的 ARC-AGI 挑战中,HRM 仅用 2700万参数和1000个训练样本,就达到 40.3% 的准确率,超过了参数规模更大的o3-mini-high(34.5%)和Claude 3.7 8K(21.2%)。

参考

  1. mp.weixin.qq.com/s/RGl6VGhcM...
相关推荐
bobz96517 分钟前
用于服务器测试的 MCP 开发工具
后端
SimonKing19 分钟前
流式数据服务端怎么传给前端,前端怎么接收?
java·后端·程序员
Laplaces Demon21 分钟前
Spring 源码学习(十)—— DispatcherServlet
java·后端·学习·spring
BigYe程普28 分钟前
出海技术栈集成教程(一):域名解析与配置
前端·后端·全栈
这里有鱼汤30 分钟前
如何用‘资金视角’理解短线交易?这篇讲透了!
后端
扶风呀1 小时前
负载均衡详解
运维·后端·微服务·面试·负载均衡
写bug写bug1 小时前
彻底搞懂Spring Boot的系统监控机制
java·后端·spring
邦杠1 小时前
最新SpringBoot上传Maven中央仓库,在其他项目直接引入依赖(github开源项目打包上传,不需要私服)
spring boot·后端·开源·github·maven
BigYe程普1 小时前
出海技术栈集成教程(四):Resend邮件服务
前端·后端·全栈
风象南2 小时前
SpringBoot 实现在线查看内存对象拓扑图 —— 给 JVM 装上“透视眼”
后端