OpenEMMA: 基于多模态大语言模型的端到端开源自动驾驶框架

OpenEMMA: 基于多模态大语言模型的端到端开源自动驾驶框架

创新点

OpenEMMA 将前置摄像头图像和车辆历史文本状态作为输入。驾驶任务被构建为视觉问答(VQA)问题,利用思维链推理来指导模型生成关键物体的详细描述、行为洞察和元驾驶决策。这些决策由模型直接推断得出,为生成路径点提供了必要的上下文。为了减轻多模态大语言模型在目标检测任务中已知的局限性,OpenEMMA 集成了经过微调的 YOLO 版本,该版本针对自动驾驶场景中的 3D 边界框预测进行了专门优化,显著提高了检测精度。此外,通过利用多模态大语言模型预先存在的世界知识,OpenEMMA 可以为场景理解等感知任务生成可解释、人类可读的输出,从而提高了透明度和可用性

方法

它以车辆历史驾驶状态 T 和视觉驾驶场景 I 为输入,预测未来轨迹 P,并检测交通参与者

为了可解释化:生成两个中间表示:速度向量S,表示车辆速度大小

曲率向量k,表示车辆的转向率

速度表示踩油门的程度,而曲率表示转动方向盘的幅度

然后利用公式计算出下一个轨迹坐标

阶段1

将驾驶场景的前置摄像头图像和本车过去 5 秒的历史数据(速度和曲率)作为预训练多模态大语言模型的输入

设计特定任务的提示,引导多模态大语言模型对当前本车驾驶场景进行全面推理:

1.意图指令:根据当前场景明确本车的预期动作,例如是继续沿着车道左转、右转还是直行。此外,它还指定车辆是应保持当前速度、减速还是加速。

2.场景描述:根据交通信号灯、其他车辆或行人的运动以及车道标记,对驾驶场景进行简洁描述

3.主要物体:识别本车驾驶员应注意的道路使用者,在驾驶场景图像中指定它们的位置。对于每个道路使用者,简要描述其当前动作,并解释其存在对本车决策过程的重要性

阶段2

预测:通过结合思维链推理过程和本车历史状态,促使多模态大语言模型生成未来 T 秒的速度S和曲率C,然后对这些预测进行积分,计算最终轨迹T

视觉专家增强的目标检测

现成的预训练多模态大语言模型由于空间推理能力的限制,难以实现高质量的检测。为了克服这一挑战,在不额外微调多模态大语言模型的情况下实现高检测精度,我们将一个外部的视觉专业模型集成到 OpenEMMA 中,有效地解决了检测任务

相当于原有大模型+yolo3d

OpenEMMA 专门使用前置摄像头进行目标检测,并处理单帧数据,而不是连续的帧序列。这将任务置于基于单目摄像头的 3D 目标检测范畴内,选择的YOLO3D34

yolo

YOLO3D 是一种两阶段的 3D 目标检测方法,它强制实施 2D - 3D 边界框一致性约束。具体来说,它假设每个 3D 边界框都紧密包含在其相应的 2D 边界框内。该方法首先预测 2D 边界框,然后估计每个检测到的物体的 3D 尺寸和局部方向。3D 边界框的七个参数 ------ 中心位置 tx、ty、tz,尺寸 dx、dy、dz 以及偏航角 θ------ 是基于 2D 边界框和 3D 估计联合计算得出的

相关推荐
科技小E5 分钟前
国标GB28181视频平台EasyCVR安防系统部署知识:如何解决异地监控集中管理和组网问题
大数据·网络·人工智能·音视频
chat2tomorrow27 分钟前
如何使用 QuickAPI 推动医院数据共享 —— 基于数据仓库场景的实践
大数据·数据仓库·人工智能·医院·sql2api
lcw_lance27 分钟前
数字孪生[IOC]常用10个技术栈(总括)
大数据·运维·人工智能
AI蜗牛车35 分钟前
【LLM+Code】Devin Prompt&Tools详细解读
人工智能·语言模型·prompt·copilot·agent
极小狐37 分钟前
如何使用极狐GitLab 软件包仓库功能托管 ruby?
开发语言·数据库·人工智能·git·机器学习·gitlab·ruby
UI设计兰亭妙微38 分钟前
APP 设计中的色彩心理学:如何用色彩提升用户体验
人工智能·ux
Jamence42 分钟前
多模态大语言模型arxiv论文略读(六十五)
人工智能·语言模型·自然语言处理
缘友一世1 小时前
深度学习系统学习系列【5】之深度学习基础(激活函数&损失函数&超参数)
人工智能·深度学习·学习
zx431 小时前
聚类后的分析:推断簇的类型
人工智能·python·机器学习·聚类
AORO_BEIDOU1 小时前
遨游科普:2025年,三防平板有多智能?
网络·人工智能·安全·智能手机·电脑·信息与通信