动手学强化学习 第6章 Dyna-Q 算法

第六章

重点:

提出了有模型算法和无模型算法。

强化学习算法有两个重要的评价指标:一个是算法收敛后的策略在初始状态下的期望回报,另一个是样本复杂度,即算法达到收敛结果需要在真实环境中采样的样本数量。

核心的改动应该是指这个,利用模型去(学习or记录)一个占用度量对应的奖励和下一状态,然后使用它去更状态新价值函数,从代码上看也是做了类似的工作。

Q-planning可以有效加速收敛。

有必要反问一下这么做的动机是什么?

口胡一下,即为什么要在现在去做随机更新价值的这个动作:占用度量的状态价值函数的定义是当前状态到未来最终状态的累积懊悔(指负回报),而在前期更新状态价值函数时,对下一状态初始化其实都是0,没有形成传递链。只有随着迭代的深入,传递链才会被慢慢建立起来,而Q_learning做的工作实际上就是在加速传递链的建立。

问了GPT他也是认同的:

Q-learning / Q-planning 的目标是加速 Bellman 信号的传播,从而更快地建立起状态之间的价值传递链。

相关推荐
向往着的青绿色1 天前
完全平方数【Letcode279题解】
开发语言·c++·数学·算法·面试·性能优化·动态规划
手握风云-1 天前
优选算法的后进之道:栈专题
算法
xwz小王子1 天前
Science Robotics 赋予机器人“类脑”触觉,低成本视觉-触觉预训练攻克灵巧手多任务操作
人工智能·算法·机器人
Vect__1 天前
记录3.20和3.21做过的一些力扣的思考
linux·算法·leetcode
qq_358589611 天前
sylar 配置系统
java·c++·算法
ryrhhhh1 天前
矩阵跃动自研技术:小陌GEO动态监测算法,30分钟快速适配大模型更新
人工智能·算法·矩阵
01二进制代码漫游日记1 天前
动态顺序表的实现(修改)
数据结构·算法
佩奇大王1 天前
P103 日期问题
java·开发语言·算法
计算机安禾1 天前
【C语言程序设计】第38篇:链表数据结构(二):链表的插入与删除操作
c语言·开发语言·数据结构·c++·算法·链表
颜酱1 天前
吃透回溯算法:从框架到实战
javascript·后端·算法