基于模型的强化学习方法4大类灌水范式

我们都知道基于模型的强化学习,就是从数据中学一个环境模型。

举个例子,我们要控制一个马达,输入就是电流,输出就是转速。无模型强化学习就是随机采样,然后从数据中直接学习输入到输出的影射,研究重心在如何高效学习。

基于模型的强化学习,希望从输入输出中学习一个马达的状态转移模型,然后智能体和这个模型交互。这里面有什么问题呢?

问题就在于,这个模型一定会有误差。即使用数据去学习一个二次函数,也会有误差。如上图所示。

四大类灌水范式

上面这张图,一张图代表一类灌水范式。

  1. 第一类:用类似机器学习里面集成学习的方法,去减小这个model-bias;
  2. 第二类:用元学习的方法,期望策略能搞处理不同情况的model-bias;
  3. 第三类:希望model-bias对策略的影响要对齐;
  4. 第四类:这一类和前三类比是比较新的思路:model-bias和最终性能没有直接联系,搞定model-bias并不一定能够带来性能提升,搞定policy搞定一切。这个方向还有待大灌水。

原文:Understanding world models through multi-step pruning policy via reinforcement learning

链接:https://www.sciencedirect.com/science/article/abs/pii/S0020025524012751

PDF链接:https://github.com/tinyzqh/MSPP/blob/master/Understanding world models through multi-step pruning policy via reinforcement learning.pdf

相关推荐
数字供应链安全产品选型几秒前
2026,问境AIST发布:悬镜安全定义AI原生安全治理新范式
人工智能·安全·ai-native
云汉芯城ICkey5 分钟前
云汉芯城✖海智在线亮相AWE 2026:AI驱动的供应链体系加速创新产品落地
人工智能
泛联新安6 分钟前
AI For Trusted Code|泛联新安:以“AI+可信”构筑智能时代基石
人工智能
zyplayer-doc7 分钟前
2026企业知识库选型:zyplayer-doc功能深度评测与使用总结
人工智能·开源软件
Breath577 分钟前
我用开源项目把 AI Agent 和钉钉打通了,现在能查人、发消息、管文档
人工智能·开源·钉钉
TLeung653679 分钟前
【无标题】
人工智能·ai
ViiTor_AI10 分钟前
ElevenLabs 语音克隆工具深度评测:价格、功能与最佳替代方案
人工智能·语音识别
Nile11 分钟前
解密openclaw底层pi-mono架构系列一:5. 让 AI 住进 Slack —— 自我管理的 Slack Bot 智能体详解
人工智能·架构
DARLING Zero two♡11 分钟前
私人 AI 随身带!OpenClaw+cpolar 外网访问完整教程
人工智能
红龙创客13 分钟前
从零到一:我用DeepSeek + Suno + 即梦全AI流程创作了一首歌(实操小白教程)
人工智能