Representation + IL: Policy Contrastive Imitation Learning

ICML 2023
paper

采用对比学习对状态动作联合表征,并基于表征函数实现奖励函数重构

method

对比学习目标函数如下:

问题:最小化该损失函数,第一项少了一个负号

得到表征函数 Φ \Phi Φ,通过计算真是样本与专家样本在表征后的余弦相似度,作为奖励函数(表征越相似,奖励越大):

实践中,由于 Φ 频繁更新,计算期望值可能会很耗时。因此使用随机专家样本来计算奖励。最后基于DrQ-v2算法训练策略

结果

基于表征的奖励函数对比GAIL:

相关推荐
金融Tech趋势派7 分钟前
2026企业微信AI服务商实测:微盛·企微管家领跑私域客户运营赛道
大数据·人工智能·企业微信
武汉知识图谱科技8 分钟前
从材料到实物:神经符号AI如何重构轨道车辆吸能结构仿真流程
人工智能·知识图谱
青岛前景互联信息技术有限公司14 分钟前
又到一年开学季,大学校园安全管理中的突出问题分析
大数据·人工智能·物联网
绛橘色的日落(。・∀・)ノ15 分钟前
机器学习之手写数字识别
算法
折哥的程序人生 · 物流技术专研19 分钟前
从“卡死”到“跑通”:WMS机器学习全流程实战排坑记
数据库·人工智能·机器学习
AC赳赳老秦19 分钟前
可视化方案提效:用 OpenClaw 对接 XMind/ProcessOn,自动生成流程图、架构图、工作脑图
人工智能·深度学习·caffe·xmind·processon·deepseek·openclaw
流年如夢20 分钟前
单链表Ⅲ(LeetCode)
数据结构·算法·leetcode·职场和发展
coderyi22 分钟前
理解AI Code Agent
人工智能·agent
Clark1124 分钟前
# 十年 C++ 后端 GAP 六个月,写了一个近 3 万行的LLM-TFFInfer推理框架项目解析(四)——Tensor 张量系统与内存抽象(上)
人工智能
jarvisuni26 分钟前
Claude“山寨版”来了,支持中文,可配“任意模型”
人工智能·ai编程