0.前置
- 机器人持续学习基准LIBERO系列1------基本介绍与安装测试
- 机器人持续学习基准LIBERO系列2------路径与基准基本信息
- 机器人持续学习基准LIBERO系列3------相机画面可视化及单步移动更新
- 机器人持续学习基准LIBERO系列4------robosuite最基本demo
- 机器人持续学习基准LIBERO系列5------获取显示深度图
- 机器人持续学习基准LIBERO系列6------获取并显示实际深度图
- 机器人持续学习基准LIBERO系列7------计算并可视化点云
- 机器人持续学习基准LIBERO系列9------数据集轨迹查看
1.LIBERO-master目录结构
- benchmark_scripts
- images
- libero
- configs
- config.yaml:总结所有配置的默认配置文件
- data/default.yaml:数据的配置
- eval/default.yaml:验证的配置
- lifelong
- base.yaml:顺序微调基线的配置
- agem.yaml:agem配置
- er.yaml
- ewc.yaml
- packnet.yaml
- multitask.yaml
- single_task.yaml
- policy
- data_augmentation
- image_encoder
- language_encoder
- policy_head
- position_encoding
- bc_rnn_policy.yaml :ResNet-LSTM配置
- bc_transformer_policy.yaml:ResNet-Transformer配置
- bc_vilt_policy.yaml:ViT-Transformer配置
- train
- optimizer
- shceduler
- default.yaml:训练的配置
- optimizer
- datasets
- libero:环境有关
- assets:网格文件相关
- envs
- problems:prooblem类定义
- lifelong:策略,算法和实验
- main.py:复现实验的主要脚本
- algos:持续学习框架
- base.py:所有算法的父类Sequential
- er.py:Experience Replay算法
- ewc.py:Elastic Weight Consolidation算法
- packnet.py:Packnet算法
- multitask.py:多任务学习基线
- single_task.py:顺序学习基线
- language.py
- models:底层策略
- policy
- bc_rnn_policy.py:ResNet-RNN
- bc_transformer_policy.py:ResNet-T
- bc_vilt_policy.py:ViT-T
- configs
- libero.egg-info
- mine
- notebooks
- scripts:创建数据集的脚本
- collect_demonstrations.py:收集自己的人工演示轨迹
- create_dataset.py:创建自己的数据集
- batch_create_dataset.py :通过重复运行create_dataset.py创建一个批次的数据集
- templates
- problem_class_template.py:方便用户创建自己的problem类
- LICENSE
- README.md
- requirements.txt
- setup.py
- .gitignore
2.LIBERO配置文件
- 使用Hydra配置
- 如果想要修改配置的话,参考下面的命令进行配置,而不是直接修改yaml文件
python
export CUDA_VISIBLE_DEVICES=GPU_ID && \
export MUJOCO_EGL_DEVICE_ID=GPU_ID && \
python lifelong/main.py seed=SEED \
benchmark_name=BENCHMARK
policy=POLICY \
lifelong=ewc \
lifelong.e_lambda=100000 \
lifelong.gamma=0.95