Representation + IL: Policy Contrastive Imitation Learning

ICML 2023
paper

采用对比学习对状态动作联合表征,并基于表征函数实现奖励函数重构

method

对比学习目标函数如下:

问题:最小化该损失函数,第一项少了一个负号

得到表征函数 Φ \Phi Φ,通过计算真是样本与专家样本在表征后的余弦相似度,作为奖励函数(表征越相似,奖励越大):

实践中,由于 Φ 频繁更新,计算期望值可能会很耗时。因此使用随机专家样本来计算奖励。最后基于DrQ-v2算法训练策略

结果

基于表征的奖励函数对比GAIL:

相关推荐
GetcharZp3 分钟前
告别昂贵显卡!llama.cpp 终极指南:在你的电脑上满速运行大模型!
人工智能
AI木马人7 分钟前
3.【Prompt工程实战】如何设计一个可复用的Prompt系统?(避免每次手写提示词)
linux·服务器·人工智能·深度学习·prompt
lwf0061647 分钟前
导数学习日记
学习·算法·机器学习
Agent产品评测局26 分钟前
临床前同源性反应种属筛选:利用AI Agent加速筛选的实操方案 —— 2026企业级智能体选型与技术落地指南
人工智能·ai·chatgpt
ting945200037 分钟前
HunyuanOCR 全方位深度解析
人工智能·架构
woai336438 分钟前
AI通识-大模型的原理&应用
人工智能
头发够用的程序员1 小时前
从滑动窗口到矩阵运算:img2col算法基本原理
人工智能·算法·yolo·性能优化·矩阵·边缘计算·jetson
ydmy1 小时前
transformer超参数配置(个人理解)
人工智能·深度学习
武帝为此1 小时前
【数据清洗缺失值处理】
python·算法·数学建模
AI原来如此1 小时前
AI 编程助手常见问题 10 问 10 答
人工智能·ai·大模型·编程