机器学习——PPO补充

On-policy vs Off-policy

  • 今天跟环境互动,并学习是on-policy

  • 只是在旁边看,就是Off-policy

  • 从p中选q个重要的,需要加一个weight p(x)/q(x)

  • p和q不能相差太多

  • 采样数太少导致分布差很多,导致weight发生变化

On-Policy -> Off-Policy


得到新的loss函数

PPO

  • 衡量 θ \theta θ和 θ ′ \theta' θ′之间的kl散度,衡量二者行为上的相似性,而不是参数上的相似性
  • Adaptive KL Penalty
  • 绿色的线是第一项,蓝色是第二项
相关推荐
nonono16 分钟前
深度学习——ViT(Vision Transformer)学习(2020.10)
人工智能·深度学习·transformer
Dxy123931021616 分钟前
PyTorch的ReduceLROnPlateau详解:深度学习训练的“智能调速器”
人工智能·pytorch·深度学习
哥布林学者20 分钟前
高光谱成像(十)基于 LMM 的端元提取
机器学习·高光谱成像
SomeOtherTime20 分钟前
信号处理(AI回答)
人工智能·信号处理
视觉&物联智能25 分钟前
【杂谈】-人工智能蓬勃演进背后的隐性支撑体系
人工智能·ai·aigc·算力·agi·deepseek
IT WorryFree26 分钟前
openclaw飞书机器人权限管理
人工智能·机器人·飞书
吴佳浩29 分钟前
OpenClaw、Claude Code 等 Agent 为什么都选择 Node.js?
前端·人工智能·langchain
CoovallyAIHub31 分钟前
开源一周 6300+ Star!Andrew Ng 发布 Context Hub,专治 AI Agent 调用过时 API
人工智能·架构·github
witAI35 分钟前
**GLM5剧本拆解2025指南,解锁多模态创作新范式**
人工智能·python