【论文精读】PlanT: Explainable Planning Transformers via Object-Level Representations

1 基本信息

院校:德国的图宾根大学

网站:https://www.katrinrenz.de/plant

2 论文背景

2.1 现有问题

现在的基于学习的方法使用高精地图和BEV,认为准确的(达到像素级的pixel-level)场景理解是鲁棒的输出的关键。recovering pixel-level BEV information from sensor inputs。

2.2 作者的想法

作者认为这么丰富的信息是不必要的,仅仅使用低维的(物体级的object-level)特征------周车和routing信息即可。

3 解决办法

3.1 Tokenization

tokenization是指从场景如何获取token的过程。作者用的carla,细节略。直接看的得到的token。

Vt是车辆信息,St是routing信息。包含类型z,相对于自车的bouding box的位置x和y,长宽h和w,方向fai,一共6维。

3.2 Token Embeddings

将tokens输入给一个线性层,原来的6维变成H(hidden)维,再分别加入偏置ev和es,得到e。

3.3 自车规划任务

输入是3.2的线性化后的Vt+St和一个cls token(H维),transformer采用了BERT架构,输出采用GRU,通过自回归的方式输出Wx2的轨迹点。

3.4 周车预测任务

将transformer的输出h(每个周车都有h),经过一个线性层linear layer预测速度/位置/方向等。

3.5 loss设计

自车规划任务:自车轨迹的l1loss。

周车预测任务:交叉熵损失。

相关推荐
后端研发Marion7 小时前
【JoyAgent-JDGenie 全栈多智能体系统技术文档】
人工智能·大模型·智能体·langflow·joyagent
后端研发Marion9 小时前
【Gemini 3 技术深度解析:架构、性能与生态应用】
ai·大模型·llm·ai编程·gemini3
Study99610 小时前
科普专栏|大语言模型:理解与生成语言的人工智能
人工智能·深度学习·机器学习·大模型·agent·大模型微调·大模型应用开发
肥猪猪爸13 小时前
TextToSql——Vanna的安装与使用
人工智能·python·算法·机器学习·大模型·ollama·vanna
青衫客3614 小时前
浅谈 ReCAP(Recursive Context-Aware Reasoning and Planning)——大模型推理与规划的递归范式
大模型·agent·智能体·recap
CoderJia程序员甲15 小时前
GitHub 热榜项目 - 日榜(2025-12-10)
ai·开源·大模型·github·ai教程
青衫客3616 小时前
用 LangGraph 从零实现 ReCAP:一个可运行的递归任务规划框架(纯模拟版)
大模型·llm·agent·智能体·recap
九年义务漏网鲨鱼17 小时前
【大模型微调】QLoRA微调原理及实战
深度学习·算法·大模型·智能体
MonkeyKing_sunyuhua17 小时前
SOTA 级别的模型,其中SOTA是什么意思
大模型
模型启动机17 小时前
GELab-Zero:阶跃开源的4B端侧多模态GUI Agent模型,助力本地可控的移动设备智能化
人工智能·ai·大模型·智能化