强化学习--免模型预测与控制

免模型预测与控制

强化学习


免模型预测

蒙特卡洛估计

蒙特卡洛估计方法在强化学习中是免模型预测价值函数的方式之一,本质是一种统计模拟方法,它的发展得益于电子计算机的发明。假设我们需要计算一个不规则图形的面积,这种情况下是很难通过规则或者积分的方式得到结果的。

而蒙特卡洛基于这样的想法:比如我们有一袋豆子,把豆子均匀地在一定范围内朝这个图形上撒,撒到足够多的数量时数一下这个图形中有多少颗豆子,这个豆子的数目就是图形的面积。当豆子越小撒的越多的时候,结果就越精确。此时我们借助计算机程序可以生成大量均匀分布坐标点,然后统计出图形内的点数,通过它们占总点数的比例和坐标点生成范围的面积就可以求出图形面积。

蒙特卡洛方法主要分成两种算法,一种是首次访问蒙特卡洛方法,另外一种是每次访问蒙特卡洛方法。首次访问蒙特卡洛方法主要包含两个步骤,首先是产生一个回合的完整轨迹,然后遍历轨迹计算每个状态的回报。注意,只在第一次遍历到某个状态时会记录并计算对应的回报。

时序差分估计

时序差分估计方法是一种基于经验的动态规划方法,它结合了蒙特卡洛和动态规划的思想。最简单的时序差分可以表示为式:

时序产分与蒙特卡洛的比较

  • 时序差分方法可以在线学习每走一步就可以更新,效率高。蒙特卡洛方法必须等游戏结束时才可以学习。
  • 时序差分方法可以从不完整序列上进行学习。蒙特卡洛方法只能从完整的序列上进行学习。
  • 时序差分方法可以在连续的环境下(没有终止)进行学习。蒙特卡洛方法只能在有终止的情况下学习。
  • 时序差分方法利用了马尔可夫性质,在马尔可夫环境下有更高的学习效率。蒙特卡洛方法没有假设环境具有马尔可夫性质,利用采样的价值来估计某个状态的价值,在不是马尔可夫的环境下更加有效。

免模型控制

Q-learning

为了解决控制问题,我们只需要直接预测动作价值函数,然后在决策时选择动作价值即 Q 值最大对应的动作即可。这样一来,策略和动作价值函数同时达到最优,相应的状态价值函数也是最优的。

相关推荐
南湖北漠几秒前
浅谈生活中的规范化品牌代理标准店和精简标准代理店 时间:2026年3月30日(来源网络,原创)
网络·人工智能·计算机网络·其他·生活
帮我吧智能服务平台3 分钟前
从云端到边缘,智能机器人如何重构企业客服成本结构
人工智能·重构·机器人
互联网志10 分钟前
“光、储、氢、电与人工智能”深度融合的能源转型图景
人工智能·能源
美狐美颜sdk10 分钟前
美颜SDK是什么?直播/短视频美颜SDK技术详解
人工智能·算法·美颜sdk·直播美颜sdk·美颜api
程序猿追12 分钟前
HarmonyOS 6.0 游戏开发实战:用 ArkUI 从零打造消消乐小游戏
大数据·人工智能·harmonyos
做个文艺程序员13 分钟前
Linux系统上使用海光DCU部署开源大模型全攻略(以Qwen3-8B为例)
人工智能
chushiyunen16 分钟前
langgraph笔记
数据库·人工智能·笔记
xiami_world16 分钟前
AI Agent生成PPT技术解析:从一键生成到意图理解,Agent模式如何重构PPT工作流?
人工智能·经验分享·ai·信息可视化·powerpoint
我是胡杨学长17 分钟前
ChatGPT 连续三月流量下滑,是热度凉了还是 AI 泡沫要来了?
人工智能·ai·chatgpt
剑穗挂着新流苏31220 分钟前
207_深度学习调优:透彻理解权重衰退(L2 正则化)
人工智能·机器学习