Representation + IL: Policy Contrastive Imitation Learning

ICML 2023
paper

采用对比学习对状态动作联合表征,并基于表征函数实现奖励函数重构

method

对比学习目标函数如下:

问题:最小化该损失函数,第一项少了一个负号

得到表征函数 Φ \Phi Φ,通过计算真是样本与专家样本在表征后的余弦相似度,作为奖励函数(表征越相似,奖励越大):

实践中,由于 Φ 频繁更新,计算期望值可能会很耗时。因此使用随机专家样本来计算奖励。最后基于DrQ-v2算法训练策略

结果

基于表征的奖励函数对比GAIL:

相关推荐
岑小岑几秒前
DeepSeek-V3 大语言模型简单介绍
人工智能
啊巴矲2 分钟前
小白从零开始勇闯人工智能:深度学习汇总(复习大纲篇)
人工智能·深度学习
Zero3 分钟前
机器学习线性代数--(10)基变换:在不同坐标系之间切换
线性代数·机器学习
Hilaku4 分钟前
数字员工时代:企业级Claw如何让AI成为真正的生产力?
人工智能·openai·agent
啊哦呃咦唔鱼4 分钟前
LeetCode hot100-240搜索二维矩阵 II
算法
zuozewei5 分钟前
11 天,1 个人 + AI,搭了一套网络监控系统
网络·人工智能
Q741_1475 分钟前
力扣高频面试题详解 数组 链表 力扣 56.合并区间 力扣 160.相交链表 C++ 每日练习
c++·算法·leetcode·链表·数组·哈希
piao9618276 分钟前
2026企业数字化转型新变量:面向B端的高可信AI智能体选型与数据主权实践
人工智能
乱世刀疤6 分钟前
AI Weekly 3.16-3.22
人工智能
沫儿笙9 分钟前
库卡机器人铝工件焊接节气设备
人工智能·机器人