Representation + IL: Policy Contrastive Imitation Learning

ICML 2023
paper

采用对比学习对状态动作联合表征,并基于表征函数实现奖励函数重构

method

对比学习目标函数如下:

问题:最小化该损失函数,第一项少了一个负号

得到表征函数 Φ \Phi Φ,通过计算真是样本与专家样本在表征后的余弦相似度,作为奖励函数(表征越相似,奖励越大):

实践中,由于 Φ 频繁更新,计算期望值可能会很耗时。因此使用随机专家样本来计算奖励。最后基于DrQ-v2算法训练策略

结果

基于表征的奖励函数对比GAIL:

相关推荐
_风满楼1 分钟前
TDD实战-会议室冲突检测的红绿重构循环
前端·javascript·算法
是你的小橘呀5 分钟前
coze工作流打造 来喽!!
人工智能
再玩一会儿看代码24 分钟前
如何理解神经网络中的权重参数?从一张图看懂模型参数量计算
人工智能·经验分享·python·深度学习·神经网络·机器学习
pq21728 分钟前
java实现遗传算法
算法
炜宏资料库30 分钟前
【专家观点】河钢数字:工业AI质检助力生产制造企业持续提质降本增效
人工智能·制造
核数聚32 分钟前
给四足机器人装上 “智慧大脑”!核数聚具身数据集,让园区巡检又快又稳
人工智能·机器学习·ai·机器人
wuxinyan12342 分钟前
大模型学习之路007:RAG 零基础入门教程(第四篇):生成侧核心技术与大模型集成
人工智能·学习·rag
亚鲁鲁43 分钟前
02-启动流程
人工智能
木井巳1 小时前
【递归算法】单词搜索
java·算法·leetcode·决策树·深度优先
kcuwu.1 小时前
机器学习入门:线性回归完全指南(含波士顿房价预测案例)
人工智能·机器学习·线性回归