机器学习——PPO补充

On-policy vs Off-policy

  • 今天跟环境互动,并学习是on-policy

  • 只是在旁边看,就是Off-policy

  • 从p中选q个重要的,需要加一个weight p(x)/q(x)

  • p和q不能相差太多

  • 采样数太少导致分布差很多,导致weight发生变化

On-Policy -> Off-Policy


得到新的loss函数

PPO

  • 衡量 θ \theta θ和 θ ′ \theta' θ′之间的kl散度,衡量二者行为上的相似性,而不是参数上的相似性
  • Adaptive KL Penalty
  • 绿色的线是第一项,蓝色是第二项
相关推荐
VBsemi-专注于MOSFET研发定制3 分钟前
面向AI水泥厂储能系统的功率器件选型分析——以高可靠、高效率的能源转换与管理系统为例
人工智能·能源
海兰10 分钟前
【第2篇】LangChain的初步实践
人工智能·langchain
漫游的渔夫12 分钟前
别再直接 `json.loads` 了!AI 返回的 JSON 坑位指南
前端·人工智能
Warren2Lynch17 分钟前
AI 驱动的 UML 图表支持全景指南
人工智能·架构·uml
小鱼~~33 分钟前
什么是父进程
人工智能
找了一圈尾巴40 分钟前
OpenClaw技能实战:Experience Distiller 让AI从错误中自我进化
人工智能·openclaw
蕤葳-43 分钟前
AI项目经验在招聘中的作用
人工智能
devpotato1 小时前
人工智能(四)- Function Calling 核心原理与实战
java·人工智能
进击的野人1 小时前
MCP协议:让AI应用像插USB一样连接外部世界
人工智能·agent·mcp
清空mega1 小时前
动手学深度学习——SSD
人工智能·深度学习