Representation + IL: Policy Contrastive Imitation Learning

ICML 2023
paper

采用对比学习对状态动作联合表征,并基于表征函数实现奖励函数重构

method

对比学习目标函数如下:

问题:最小化该损失函数,第一项少了一个负号

得到表征函数 Φ \Phi Φ,通过计算真是样本与专家样本在表征后的余弦相似度,作为奖励函数(表征越相似,奖励越大):

实践中,由于 Φ 频繁更新,计算期望值可能会很耗时。因此使用随机专家样本来计算奖励。最后基于DrQ-v2算法训练策略

结果

基于表征的奖励函数对比GAIL:

相关推荐
小鱼小鱼.oO13 小时前
C++ 算法基础知识
c++·算法·哈希算法
研华科技Advantech13 小时前
储能AI化的数据瓶颈与破解路径:研华全栈方案实践分析
数据库·人工智能·储能·智能体
Maxwell_li113 小时前
pandas数据合并
机器学习·数据分析·numpy·pandas·matplotlib
Likeadust13 小时前
视频直播点播平台EasyDSS助力企业打造全场景数字化宣传体系
运维·人工智能·音视频
yong999013 小时前
LSD直线提取算法 MATLAB
开发语言·算法·matlab
韩曙亮13 小时前
【AI 大模型】LangChain 框架 ① ( LangChain 简介 | LangChain 模块 | LangChain 文档 )
人工智能·ai·langchain·llm·大语言模型·prompts·agents
MobotStone13 小时前
一文看懂AI智能体架构:工程师依赖的8种LLM,到底怎么分工?
后端·算法·llm
码农阿豪13 小时前
本地 AI 模型随心用!Cherry Studio + cpolar解锁跨设备智能办公
人工智能
lengxuenong14 小时前
潍坊一中第四届编程挑战赛(初赛)题解
算法
通义灵码14 小时前
用 Qoder 加速前端巨石应用的架构演进
前端·人工智能·架构·qoder