深度学习-MTR数据准备与训练

1、def create_infos_from_protos(raw_data_path, output_path, num_workers=1):

num_workers从16改成1

2、MTR的数据准备用的是scenario里的数据,不是tf_example里的

3、数据用motion1.1

4、motion数据格式:https://zhuanlan.zhihu.com/p/419147352
https://blog.csdn.net/weixin_50232758/article/details/132260047

一个tfrecord中包含大概500个scenario,scenario是一帧数据

5、由于tensorflow与torch中的typing-extensions 版本无法统一,所以数据集准备与训练分别建立两个虚拟环境进行

构建数据集准备的虚拟环境:

python 复制代码
conda create --name waymo_data_preparation python=3.8
pip install waymo-open-dataset-tf-2-12-0==1.6.4

MTR训练验证环境构建:

相关推荐
愚公搬代码12 小时前
【愚公系列】《AI漫剧创作一本通》024-Al 漫剧视频生成(AI漫剧视频生成工具)
人工智能·音视频
大模型最新论文速读12 小时前
OpenSeeker-v2:仅用 1w 条数据 + SFT,训练 Deep Research 达到 SOTA
人工智能·深度学习·机器学习·计算机视觉·自然语言处理
__log12 小时前
AI前端工程化实战指南:10大核心场景的“解题思路“与“避坑指南“
前端·人工智能
翼达口香糖12 小时前
当大模型吃掉你的App,从高德开放平台看AI服务重构
大数据·人工智能·深度学习·语言模型·数据分析·边缘计算
lizhihai_9912 小时前
股市学习心得-量比的作用
大数据·人工智能·学习
晓蓝WQuiet12 小时前
opencv从入门到。。。。
人工智能·opencv·计算机视觉
楚灵魈12 小时前
[SKILL]从零开始的Arch Linux安装工作流程
linux·人工智能
薛定猫AI12 小时前
【深度解析】Qwen 3.6 vs Gemma 4:本地大模型时代,如何选对“日常开发模型”
人工智能·状态模式
陈天伟教授12 小时前
人生的力量来源何处?
人工智能·学习
闵孚龙12 小时前
Claude Code 缓存优化模式全解析:AI Agent 上下文工程、Prompt Cache、工具 Schema 缓存、Token 成本优化
人工智能·缓存·prompt