机器学习——PPO补充

On-policy vs Off-policy

  • 今天跟环境互动,并学习是on-policy

  • 只是在旁边看,就是Off-policy

  • 从p中选q个重要的,需要加一个weight p(x)/q(x)

  • p和q不能相差太多

  • 采样数太少导致分布差很多,导致weight发生变化

On-Policy -> Off-Policy


得到新的loss函数

PPO

  • 衡量 θ \theta θ和 θ ′ \theta' θ′之间的kl散度,衡量二者行为上的相似性,而不是参数上的相似性
  • Adaptive KL Penalty
  • 绿色的线是第一项,蓝色是第二项
相关推荐
数智联AI团队11 分钟前
数智联AI团队发布2026情人节AI解决方案:用智能科技点亮马年“爱”与“团圆”
人工智能·科技
3Bronze1Pyramid1 小时前
【RNAErnie 大模型】
人工智能·深度学习·算法
良策金宝AI8 小时前
让端子排接线图“智能生成”,良策金宝AI推出变电站二次智能设计引擎
大数据·人工智能·工程设计·变电站ai
天云数据8 小时前
神经网络,人类表达的革命
人工智能·深度学习·神经网络·机器学习
xixixi777779 小时前
2026 年 02 月 13 日 AI 前沿、通信和安全行业日报
人工智能·安全·ai·大模型·通信·市场
独自归家的兔9 小时前
深度学习之 CNN:如何在图像数据的海洋中精准 “捕捞” 特征?
人工智能·深度学习·cnn
X54先生(人文科技)9 小时前
20260211_AdviceForTraditionalProgrammers
数据库·人工智能·ai编程
梦想画家10 小时前
数据治理5大核心概念:分清、用好,支撑AI智能化应用
人工智能·数据治理
yhdata10 小时前
锁定2032年!区熔硅单晶市场规模有望达71.51亿元,赛道前景持续向好
大数据·人工智能