深度学习-MTR数据准备与训练

1、def create_infos_from_protos(raw_data_path, output_path, num_workers=1):

num_workers从16改成1

2、MTR的数据准备用的是scenario里的数据,不是tf_example里的

3、数据用motion1.1

4、motion数据格式:https://zhuanlan.zhihu.com/p/419147352
https://blog.csdn.net/weixin_50232758/article/details/132260047

一个tfrecord中包含大概500个scenario,scenario是一帧数据

5、由于tensorflow与torch中的typing-extensions 版本无法统一,所以数据集准备与训练分别建立两个虚拟环境进行

构建数据集准备的虚拟环境:

python 复制代码
conda create --name waymo_data_preparation python=3.8
pip install waymo-open-dataset-tf-2-12-0==1.6.4

MTR训练验证环境构建:

相关推荐
封步宇AIGC2 分钟前
量化交易系统开发-实时行情自动化交易-Okex交易数据
人工智能·python·机器学习·数据挖掘
z千鑫4 分钟前
【人工智能】利用大语言模型(LLM)实现机器学习模型选择与实验的自动化
人工智能·gpt·机器学习·语言模型·自然语言处理·自动化·codemoss
shelly聊AI6 分钟前
AI赋能财务管理,AI技术助力企业自动化处理财务数据
人工智能·财务管理
波点兔7 分钟前
【部署glm4】属性找不到、参数错误问题解决(思路:修改模型包版本)
人工智能·python·机器学习·本地部署大模型·chatglm4
佚明zj1 小时前
全卷积和全连接
人工智能·深度学习
qzhqbb4 小时前
基于统计方法的语言模型
人工智能·语言模型·easyui
冷眼看人间恩怨4 小时前
【话题讨论】AI大模型重塑软件开发:定义、应用、优势与挑战
人工智能·ai编程·软件开发
2401_883041084 小时前
新锐品牌电商代运营公司都有哪些?
大数据·人工智能
AI极客菌5 小时前
Controlnet作者新作IC-light V2:基于FLUX训练,支持处理风格化图像,细节远高于SD1.5。
人工智能·计算机视觉·ai作画·stable diffusion·aigc·flux·人工智能作画
阿_旭5 小时前
一文读懂| 自注意力与交叉注意力机制在计算机视觉中作用与基本原理
人工智能·深度学习·计算机视觉·cross-attention·self-attention