机器学习——PPO补充

On-policy vs Off-policy

  • 今天跟环境互动,并学习是on-policy

  • 只是在旁边看,就是Off-policy

  • 从p中选q个重要的,需要加一个weight p(x)/q(x)

  • p和q不能相差太多

  • 采样数太少导致分布差很多,导致weight发生变化

On-Policy -> Off-Policy


得到新的loss函数

PPO

  • 衡量 θ \theta θ和 θ ′ \theta' θ′之间的kl散度,衡量二者行为上的相似性,而不是参数上的相似性
  • Adaptive KL Penalty
  • 绿色的线是第一项,蓝色是第二项
相关推荐
进击切图仔20 分钟前
GraspNet 训练集下载、解释和整理
人工智能·pytorch·conda
sensen_kiss20 分钟前
INT301 Bio-computation 生物计算(神经网络)Pt.9 自我组织特征映射(Self-Organizing Fearure Map)
人工智能·深度学习·神经网络·机器学习
小毅&Nora21 分钟前
【人工智能】【AI外呼】 ③ 从骚扰电话到智能语音机器人:技术架构、行业生态与工程实践
人工智能·架构·智能外呼机器人
霍格沃兹测试开发学社-小明26 分钟前
测试开发技术路线全新升级:在云原生与AI时代构建核心竞争力
大数据·人工智能·云原生
jinxinyuuuus29 分钟前
TikTok Watermark Remover:用户行为模拟、动态Token认证与视频流的去噪
网络·人工智能·计算机视觉·架构
说私域33 分钟前
基于链动2+1模式AI智能名片S2B2C商城小程序的微商运营内容研究
大数据·人工智能·小程序
free-elcmacom34 分钟前
机器学习项目实战——鸢尾花大作战
人工智能·机器学习
一尘之中34 分钟前
冰海通航的科技密码:葫芦岛港的破冰实践与智慧港口建设
人工智能·科技·ai写作
longze_736 分钟前
Uigenius:革新 UI/UX 设计的 AI 利器
人工智能·ui·ai·ux·prototype·uigenius
新智元36 分钟前
30 年数学难题,AI 仅 6 小时告破!陶哲轩:ChatGPT 们都失败了
人工智能·openai