【论文精读】PlanT: Explainable Planning Transformers via Object-Level Representations

1 基本信息

院校:德国的图宾根大学

网站:https://www.katrinrenz.de/plant

2 论文背景

2.1 现有问题

现在的基于学习的方法使用高精地图和BEV,认为准确的(达到像素级的pixel-level)场景理解是鲁棒的输出的关键。recovering pixel-level BEV information from sensor inputs。

2.2 作者的想法

作者认为这么丰富的信息是不必要的,仅仅使用低维的(物体级的object-level)特征------周车和routing信息即可。

3 解决办法

3.1 Tokenization

tokenization是指从场景如何获取token的过程。作者用的carla,细节略。直接看的得到的token。

Vt是车辆信息,St是routing信息。包含类型z,相对于自车的bouding box的位置x和y,长宽h和w,方向fai,一共6维。

3.2 Token Embeddings

将tokens输入给一个线性层,原来的6维变成H(hidden)维,再分别加入偏置ev和es,得到e。

3.3 自车规划任务

输入是3.2的线性化后的Vt+St和一个cls token(H维),transformer采用了BERT架构,输出采用GRU,通过自回归的方式输出Wx2的轨迹点。

3.4 周车预测任务

将transformer的输出h(每个周车都有h),经过一个线性层linear layer预测速度/位置/方向等。

3.5 loss设计

自车规划任务:自车轨迹的l1loss。

周车预测任务:交叉熵损失。

相关推荐
文艺倾年7 小时前
【强化学习&SWE】如何无容器化进行强化学习训练
人工智能·分布式·大模型
Flying pigs~~10 小时前
机器学习之KNN算法
算法·机器学习·大模型·knn·k近邻算法·大数据处理
田里的水稻13 小时前
LPC_激光点云定位(LSLAM)-正态分布变换(NDT)
人工智能·算法·数学建模·机器人·自动驾驶
雪碧聊技术14 小时前
14.Tools工具的介绍和使用
大模型·tools工具
lhxcc_fly15 小时前
0.LangChain--大模型篇
langchain·大模型·llm·openai·deepseek
硅基捕手维克托16 小时前
在策略上下文蒸馏:OPCD 把上下文知识直接焊进参数里 | 微软研究院
大模型·知识蒸馏·模型蒸馏·上下文蒸馏·在策略蒸馏·微软研究院·大模型蒸馏
IvanCodes16 小时前
Gemini 3.1 Pro 正式发布:一次低调更新,还是谷歌的关键反击?
人工智能·大模型·llm
vQFQJbUiJ1 天前
基于Comsol的双目标函数流热拓扑优化液冷板结构设计
自动驾驶
sg_knight1 天前
如何为 Claude Code 配置代理与网络环境
网络·ai·大模型·llm·claude·code·claude-code
laplace01231 天前
IcePop技术
人工智能·大模型·agent·claude·rag·skills·icepop