深度强化学习(三)马尔科夫决策过程

文章目录

参考文章:https://blog.csdn.net/taka_is_beauty/article/details/88356375
序贯决策问题是针对随机动态系统的不确定性按照时间顺序给出最优策略。马尔科夫决策过程是解决序贯决策问题的经典方法。

马尔可夫过程MP

  • 马尔科夫过程是指满足马尔科夫性的随机过程,马尔科夫过程的未来状态只与当前状态有关,与过去所有的状态都无关
  • 马尔科夫过程可以用一个二元组(S,P)表示,其中S表示状态空间,由一组有限的状态组成;P是状态转移概率矩阵。

马尔科夫链MC

状态离散的马尔科夫过程被称为马尔科夫链,马尔科夫链在时间和状态上均离散。

状态转移概率矩阵

将一个状态转移到另一个状态的概率按照顺序组成的矩阵就是状态转移矩阵。

状态转移概率矩阵的性质:

  • 转移概率的取值均大于或等于0。
  • 转移概率矩阵的任意一行的概率和为0。
n步转移概率

n步转移概率描述的是从第m步的状态i转移到第m+n步的状态j的条件概率


马尔科夫链

对马尔科夫过程的抽样

马尔科夫奖励过程MRP

  • MRP=马尔科夫链+一个奖励函数,奖励函数是一个期望函数
  • 马尔科夫奖励过程可以由一个四元组(S,P,R,γ)。

奖励机制

前面的马尔科夫链加上奖励机制后,可以获得一个奖励函数:

计算价值

概念定义
  • Horizon:同一个游戏环节或者轨迹的长度,由有限个步数决定的。

  • Return回报:从时间t到horizon的时间长度内,把奖励进行折扣所获得的收益。

    这里有一个叠加系数γ,越往后的奖励的的折扣越多,因为我们更希望得到现有的奖励。

  • 状态的价值:在某一个时刻t,在状态s下所期望的回报是:从这个状态开始的未来期望累积回报

  • 折扣系数γ∈[0,1]
    • 可以避免无穷的奖励
    • 未来是不确定的
    • 希望尽可能快的获得奖励
计算价值
推导贝尔曼方程

贝尔曼方程用来简化马尔科夫决策问题,贝尔曼方程表明,当前状态的的总体回报=当前状态的立即回报+未来后序状态的价值函数。

推导过程

我们知道,不同的马尔科夫链得到的下一步的状态是不同的,这里是要把所有的下一步都累加。

贝尔曼方程实际应用


相关推荐
ssf-yasuo5 个月前
TWM论文阅读笔记
论文阅读·笔记·深度学习·深度强化学习·world model
HuggingFace5 个月前
将强化学习重新引入 RLHF
rlhf·深度强化学习
ssf-yasuo5 个月前
STORM论文阅读笔记
论文阅读·笔记·深度学习·深度强化学习·world model
喝凉白开都长肉的大胖子8 个月前
VSCode配置Python教程
人工智能·vscode·python·深度学习·jupyter·visual studio·深度强化学习
IT猿手8 个月前
基于遗传算法GA的机器人栅格地图最短路径规划,可以自定义地图及起始点(提供MATLAB代码)
开发语言·算法·数学建模·matlab·机器人·深度强化学习·多目标优化算法
IT猿手8 个月前
群智能优化算法:巨型犰狳优化算法(GAO)求解23个基准函数(提供MATLAB代码)
开发语言·算法·数学建模·matlab·深度强化学习·多目标优化算法
IT猿手8 个月前
2024最新算法:电鳗觅食优化算法(Electric eel foraging optimization,EEFO)求解23个基准函数(提供MATLAB代码)
开发语言·python·算法·数学建模·matlab·深度强化学习·多目标优化算法
IT猿手9 个月前
粒子群优化算法(Particle Swarm Optimization,PSO)求解基于移动边缘计算的任务卸载与资源调度优化(提供MATLAB代码)
人工智能·python·算法·matlab·边缘计算·强化学习·深度强化学习
IT猿手9 个月前
基于差分进化算法(Differential Evolution Algorithm,DE)的移动边缘计算的任务卸载与资源调度研究(提供MATLAB代码)
人工智能·python·算法·matlab·边缘计算·强化学习·深度强化学习
HuggingFace9 个月前
最新 Hugging Face 强化学习课程(中文版)来啦!
huggingface·深度强化学习·hugging face