【论文精读】PlanT: Explainable Planning Transformers via Object-Level Representations

1 基本信息

院校:德国的图宾根大学

网站:https://www.katrinrenz.de/plant

2 论文背景

2.1 现有问题

现在的基于学习的方法使用高精地图和BEV,认为准确的(达到像素级的pixel-level)场景理解是鲁棒的输出的关键。recovering pixel-level BEV information from sensor inputs。

2.2 作者的想法

作者认为这么丰富的信息是不必要的,仅仅使用低维的(物体级的object-level)特征------周车和routing信息即可。

3 解决办法

3.1 Tokenization

tokenization是指从场景如何获取token的过程。作者用的carla,细节略。直接看的得到的token。

Vt是车辆信息,St是routing信息。包含类型z,相对于自车的bouding box的位置x和y,长宽h和w,方向fai,一共6维。

3.2 Token Embeddings

将tokens输入给一个线性层,原来的6维变成H(hidden)维,再分别加入偏置ev和es,得到e。

3.3 自车规划任务

输入是3.2的线性化后的Vt+St和一个cls token(H维),transformer采用了BERT架构,输出采用GRU,通过自回归的方式输出Wx2的轨迹点。

3.4 周车预测任务

将transformer的输出h(每个周车都有h),经过一个线性层linear layer预测速度/位置/方向等。

3.5 loss设计

自车规划任务:自车轨迹的l1loss。

周车预测任务:交叉熵损失。

相关推荐
InfraTech17 小时前
vLLM V1 Scheduler的调度逻辑&优先级分析
大模型·vllm
大数据追光猿17 小时前
【Prompt】Prompt Caching:原理、实现与高并发价值
人工智能·大模型·prompt·agent
容智信息18 小时前
荣膺ISC.AI 2025创新百强!容智信息HyperAgent超级智能体,引领企业级智能体落地新范式
人工智能·自然语言处理·金融·自动驾驶
信雪神话21 小时前
基于 BEVFormer 的 3D 目标检测 + OCC 占据预测BEV多任务模型设计与训练(Apollo-Vision-Net 实战)
自动驾驶·3d目标检测·bev多任务感知·occ占据栅格预测
世优科技虚拟人1 天前
AI数字人企业产品图谱解析:2D/3D数字人AI交互开发技术指南
人工智能·大模型·人机交互·数字人·智能交互
程序员鱼皮1 天前
女友怒骂国内不能用Claude Code,于是我给她做了一个
计算机·ai·程序员·大模型·互联网·编程
七夜zippoe1 天前
轻量级多模态模型实战:从Qwen3-VL-4B到企业级应用
架构·大模型·多模态·轻量·qwen3
喜欢吃豆1 天前
深度解析DeepSeek大语言模型架构演进——从多头注意力机制到 DeepSeek 核心技术体系 (DeepSeek-MoE, MTP, MLA)
人工智能·语言模型·架构·大模型·deepseek
Elwin Wong1 天前
关于熵的一些概念及其计算
人工智能·大模型·llm
南太湖小蚂蚁1 天前
基于LangChain1.0的人机交互式大模型调用方法
人工智能·大模型·人机交互