【第三十周】机器学习笔记三十

摘要

本周进一步学习了强化学习的reward-shaping的概念,理解reward-shaping是为了解决稀疏奖励问题而提出的一种技术。

abstract

This week, I further studied the concept of reward-shaping in reinforcement learning and understood that reward-shaping is a technique proposed to solve the sparse reward problem.

一、

面对稀疏奖励(Sparse Reward)时遇到的问题,以及一种常见的解决思路是定义额外奖励

优势函数A_t 衡量的是,在状态 s_t 下采取某个具体的动作 a_t ,比"平均表现"

· 若 A_t > 0 :说明这个动作比平均好,应该鼓励。

· 若 A_t < 0 :说明这个动作比平均差,应该避免。

但存在一个问题核心痛点:奖励稀疏

在一开始的情况可能出现大多数情况下奖励都是0,这可能导致训练进度极其缓慢甚至无法进行。在拧螺丝的过程中,机械臂只有在最后成功拧紧的那一瞬间才可能得到奖励 r_t=1 。在抵达目标之前漫长的移动、对准过程中,得到的奖励都是 r_t=0 。因此尝试额外奖励在拧螺丝的任务中,可以定义:

· 当机械臂手爪靠近螺丝时,给一个小奖励。

· 当手爪接触到螺丝时,再给一个小奖励。

· 当螺丝被拧入第一圈时,再给一个小奖励。

二、基于势能的奖励塑造

核心思想:如果奖励塑造函数 FF 被定义为一个势能函数 Φ(s)Φ(s) 的差分形式,那么它就不会改变原问题的最优策略。势能函数 Φ(s)Φ(s):这是一个为每个状态 ss 赋予一个数值的函数,这个数值代表了该状态的"潜在价值"或"好坏程度"。基于势能的奖励塑造函数的定义:

F(s,a,s′)=γΦ(s′)------Φ(s)F(s,a,s′)=γΦ(s′)------Φ(s)其中 γ是折扣因子。这个 FF 像是在引导智能体沿着势能增加的方向前进。它不会创造新的局部最优陷阱,也不会消除原有的最优路径,它只是为已有的最优路径上"贴了路标",让智能体更容易找到它。

相关推荐
2501_926978331 天前
“LLM的智能本质--AGI的可能路径--人类的意识本质”三者的统一基底(5.0理论解读)
人工智能·经验分享·笔记·深度学习·机器学习·ai写作·agi
لا معنى له1 天前
WAM与AC-WM:具身智能时代的世界动作模型与动作条件世界模型
人工智能·笔记·学习
Wilber的技术分享1 天前
【LeetCode高频手撕题 2】面试中常见的手撕算法题(小红书)
笔记·算法·leetcode·面试
愚昧之山绝望之谷开悟之坡1 天前
合格境外投资者
笔记
寒秋花开曾相惜1 天前
(学习笔记)3.8 指针运算(3.8.3 嵌套的数组& 3.8.4 定长数组)
java·开发语言·笔记·学习·算法
_李小白1 天前
【AI大模型学习笔记之平台篇】第五篇:Trae常用模型介绍与性能对比
人工智能·笔记·学习
承渊政道1 天前
【优选算法】(实战体会位运算的逻辑思维)
数据结构·c++·笔记·学习·算法·leetcode·visual studio
承渊政道1 天前
【优选算法】(实战推演模拟算法的蕴含深意)
数据结构·c++·笔记·学习·算法·leetcode·排序算法
左左右右左右摇晃1 天前
系统性能指标与损耗分析
笔记
悠哉悠哉愿意1 天前
【单片机复习笔记】第十六届省赛复盘
笔记·单片机·嵌入式硬件