机器学习——PPO补充

On-policy vs Off-policy

  • 今天跟环境互动,并学习是on-policy

  • 只是在旁边看,就是Off-policy

  • 从p中选q个重要的,需要加一个weight p(x)/q(x)

  • p和q不能相差太多

  • 采样数太少导致分布差很多,导致weight发生变化

On-Policy -> Off-Policy


得到新的loss函数

PPO

  • 衡量 θ \theta θ和 θ ′ \theta' θ′之间的kl散度,衡量二者行为上的相似性,而不是参数上的相似性
  • Adaptive KL Penalty
  • 绿色的线是第一项,蓝色是第二项
相关推荐
大猪宝宝学AI40 分钟前
【AI Infra】BF-PP:广度优先流水线并行
人工智能·性能优化·大模型·模型训练
Jerryhut43 分钟前
Opencv总结7——全景图像拼接
人工智能·opencv·计算机视觉
haing20191 小时前
七轴协作机器人运动学正解计算方法
算法·机器学习·机器人
Captaincc1 小时前
AI 原生下的新的社区形态会是什么
人工智能
简简单单OnlineZuozuo3 小时前
提示架构:设计可靠、确定性的AI系统
人工智能·unity·架构·游戏引擎·基准测试·the stanford ai·儿童
liu****3 小时前
机器学习-线性回归
人工智能·python·算法·机器学习·回归·线性回归
龙腾AI白云3 小时前
深度学习—卷积神经网络(2)
人工智能·神经网络
阿里云大数据AI技术3 小时前
一站式构建 AI 数据处理 Pipeline:DataWorks Notebook + MaxCompute MaxFrame 快速入门指南
大数据·人工智能
阿里云大数据AI技术3 小时前
StarRocks + Paimon: 构建 Lakehouse Native 数据引擎
大数据·人工智能
简简单单OnlineZuozuo3 小时前
对话式AI的安全和治理模式
人工智能·深度学习·安全·图像识别·banana