强化学习相关

专业词汇索引

  • agent:我们把在环境中移动的物体叫agent,比如强化学习游戏中的马里奥。
  • time step:每一次状态(state后面会讲)移动按照时间步来移动
  • state:就是智能体相对于环境所处的状态(这个状态可以是很抽象的状态,最简单的就是地理位置,或者是机器人的此时的动作,想象一下你如果在用强化学习让机器人学会跳舞,那它此时的动作,就可以认为是它的状态。在金融数据中,很多特征融合到一起也能称为此时的状态)
  • action:智能体从一个状态移动到另一个状态的动作(比如,迷宫探险,一共有四个方向,上下左右,这就是在迷宫探险中的action)
  • state transition:状态转移,就是一个状态转换到另一个状态,s1->a2->s2,智能体从s1采取a2动作,到达了s2。
  • policy:就是告诉智能体移动方向的概率,也就是智能体如何移动的策略。属于条件概率,Π(a1|s1)=0,处于s1状态,采取a1方向移动的概率为0
  • reward:就是我们自己规定的智能体学习的方式,可以给一些惩罚或者是奖励。
  • Trajectories:智能体在按照一定的策略运行下去,如果有终点,则这个路径是有限的,如果没有终点,则这个路径是无限的。Trajectories就是智能体运行的路径
  • returns:智能体按照trajectories运行下去,得到的reward的总和。
  • state value:智能体按照一个给定的策略所能够得到的平均reward

State Values and Bellman Equation

returns是智能体通过一个路径下,所获得的奖励的总和,通过returns能够知道如果智能体通过这样一个trajectory下,获得的奖励总和,来衡量与其他trajectory的比较,就能够知道哪一条道路更加适合。

State Values

假如一个状态在,前往获得了立即奖励,依次下去我们用来表示所获得的路径奖励,表达式为

那么我们的State Values就可以用来表示,其计算公式可以用下列来表示

Bellman equation

state value可以写成如下的形式

我们分别来看这两个式子

第一个式子

第二个式子

所以两个化简后的式子就可以总和为

总结为

Action value

关于一个动作的价值方程,我们就叫做action value

state value的值和action value之间的关系是

相关推荐
WhereIsMyChair2 天前
VERL的损失函数计算方式
强化学习
蜡笔小新..3 天前
从零学习 RL :初识强化学习
人工智能·强化学习·rl
QiZhang | UESTC4 天前
RL4LLM
大模型·强化学习·rl4llm
nju_spy4 天前
动手学强化学习上交张伟楠(一)导论 + 多臂老虎机 MAB(ε-greedy+上置信界+汤普森采样)
人工智能·python·强化学习·actor-critic·多臂老虎机·汤普森采样·探索与利用
程序员Agions5 天前
程序员武学修炼手册(三):融会贯通——从写好代码到架构设计
前端·程序员·强化学习
索木木6 天前
强化学习与思维链
大模型·sft·强化学习·思维链
nju_spy6 天前
RL4LLM_Survey 强化学习在大语言模型后训练综述
人工智能·强化学习·reinforce·ppo·数据异质性·大模型后训练·奖励函数
AI-Frontiers8 天前
小白也能看懂的LLM-RL算法:PPO/DPO/GRPO/GSPO
强化学习·大模型训练
超的小宝贝8 天前
机器学习期末复习
深度学习·机器学习·强化学习
空山新雨后、8 天前
深度学习VS强化学习:预测与决策的本质差异
人工智能·深度学习·强化学习