Representation + IL: Policy Contrastive Imitation Learning

ICML 2023
paper

采用对比学习对状态动作联合表征,并基于表征函数实现奖励函数重构

method

对比学习目标函数如下:

问题:最小化该损失函数,第一项少了一个负号

得到表征函数 Φ \Phi Φ,通过计算真是样本与专家样本在表征后的余弦相似度,作为奖励函数(表征越相似,奖励越大):

实践中,由于 Φ 频繁更新,计算期望值可能会很耗时。因此使用随机专家样本来计算奖励。最后基于DrQ-v2算法训练策略

结果

基于表征的奖励函数对比GAIL:

相关推荐
风象南36 分钟前
Token太贵?我用这个数据格式把上下文窗口扩大2倍
人工智能·后端
NAGNIP10 小时前
轻松搞懂全连接神经网络结构!
人工智能·算法·面试
NAGNIP10 小时前
一文搞懂激活函数!
算法·面试
董董灿是个攻城狮10 小时前
AI 视觉连载7:传统 CV 之高斯滤波实战
算法
moshuying11 小时前
别让AI焦虑,偷走你本该有的底气
前端·人工智能
董董灿是个攻城狮11 小时前
零基础带你用 AI 搞定命令行
人工智能
喝拿铁写前端14 小时前
Dify 构建 FE 工作流:前端团队可复用 AI 工作流实战
前端·人工智能
阿里云大数据AI技术14 小时前
阿里云 EMR Serverless Spark + DataWorks 技术实践:引领企业 Data+AI 一体化转型
人工智能
billhan201614 小时前
MCP 深入理解:协议原理与自定义开发
人工智能