机器学习——PPO补充

On-policy vs Off-policy

  • 今天跟环境互动,并学习是on-policy

  • 只是在旁边看,就是Off-policy

  • 从p中选q个重要的,需要加一个weight p(x)/q(x)

  • p和q不能相差太多

  • 采样数太少导致分布差很多,导致weight发生变化

On-Policy -> Off-Policy


得到新的loss函数

PPO

  • 衡量 θ \theta θ和 θ ′ \theta' θ′之间的kl散度,衡量二者行为上的相似性,而不是参数上的相似性
  • Adaptive KL Penalty
  • 绿色的线是第一项,蓝色是第二项
相关推荐
catchadmin2 分钟前
Laravel 13 正式发布 使用 Laravel AI 无缝平滑升级
人工智能·laravel
璞华Purvar2 分钟前
2026流程制造PLM系统解决方案:璞华易研PLM如何驱动化工、食品、日化行业数字化转型
人工智能
唐天下闻化2 分钟前
2026操作系统竞争格局深度解析:国产崛起与生态演进
人工智能
MicrosoftReactor2 分钟前
技术速递|面向无障碍的持续 AI:GitHub 如何将反馈转化为包容性
人工智能·github
此方ls3 分钟前
机器学习深度学习二——GAN网络
深度学习·机器学习·生成对抗网络
OidEncoder7 分钟前
工业安全选型避坑|安全编码器与双编码器方案,各有适配场景(含参数指南)
网络·人工智能·安全
进击ing小白10 分钟前
OpenCv中基础图形的绘制
人工智能·opencv·计算机视觉
默默开发2 小时前
完整版:本地电脑 + WiFi 搭建 AI 自动炒股 + 自我学习系统
人工智能·学习·电脑
zzh940772 小时前
2026年AI文件上传功能实战:聚合站处理图片、PDF、PPT全指南
人工智能·pdf·powerpoint
新缸中之脑7 小时前
Paperless-NGX实战文档管理
人工智能