OpenEMMA: 基于多模态大语言模型的端到端开源自动驾驶框架

OpenEMMA: 基于多模态大语言模型的端到端开源自动驾驶框架

创新点

OpenEMMA 将前置摄像头图像和车辆历史文本状态作为输入。驾驶任务被构建为视觉问答(VQA)问题,利用思维链推理来指导模型生成关键物体的详细描述、行为洞察和元驾驶决策。这些决策由模型直接推断得出,为生成路径点提供了必要的上下文。为了减轻多模态大语言模型在目标检测任务中已知的局限性,OpenEMMA 集成了经过微调的 YOLO 版本,该版本针对自动驾驶场景中的 3D 边界框预测进行了专门优化,显著提高了检测精度。此外,通过利用多模态大语言模型预先存在的世界知识,OpenEMMA 可以为场景理解等感知任务生成可解释、人类可读的输出,从而提高了透明度和可用性

方法

它以车辆历史驾驶状态 T 和视觉驾驶场景 I 为输入,预测未来轨迹 P,并检测交通参与者

为了可解释化:生成两个中间表示:速度向量S,表示车辆速度大小

曲率向量k,表示车辆的转向率

速度表示踩油门的程度,而曲率表示转动方向盘的幅度

然后利用公式计算出下一个轨迹坐标

阶段1

将驾驶场景的前置摄像头图像和本车过去 5 秒的历史数据(速度和曲率)作为预训练多模态大语言模型的输入

设计特定任务的提示,引导多模态大语言模型对当前本车驾驶场景进行全面推理:

1.意图指令:根据当前场景明确本车的预期动作,例如是继续沿着车道左转、右转还是直行。此外,它还指定车辆是应保持当前速度、减速还是加速。

2.场景描述:根据交通信号灯、其他车辆或行人的运动以及车道标记,对驾驶场景进行简洁描述

3.主要物体:识别本车驾驶员应注意的道路使用者,在驾驶场景图像中指定它们的位置。对于每个道路使用者,简要描述其当前动作,并解释其存在对本车决策过程的重要性

阶段2

预测:通过结合思维链推理过程和本车历史状态,促使多模态大语言模型生成未来 T 秒的速度S和曲率C,然后对这些预测进行积分,计算最终轨迹T

视觉专家增强的目标检测

现成的预训练多模态大语言模型由于空间推理能力的限制,难以实现高质量的检测。为了克服这一挑战,在不额外微调多模态大语言模型的情况下实现高检测精度,我们将一个外部的视觉专业模型集成到 OpenEMMA 中,有效地解决了检测任务

相当于原有大模型+yolo3d

OpenEMMA 专门使用前置摄像头进行目标检测,并处理单帧数据,而不是连续的帧序列。这将任务置于基于单目摄像头的 3D 目标检测范畴内,选择的YOLO3D34

yolo

YOLO3D 是一种两阶段的 3D 目标检测方法,它强制实施 2D - 3D 边界框一致性约束。具体来说,它假设每个 3D 边界框都紧密包含在其相应的 2D 边界框内。该方法首先预测 2D 边界框,然后估计每个检测到的物体的 3D 尺寸和局部方向。3D 边界框的七个参数 ------ 中心位置 tx、ty、tz,尺寸 dx、dy、dz 以及偏航角 θ------ 是基于 2D 边界框和 3D 估计联合计算得出的

相关推荐
aigcapi4 小时前
RAG 系统的黑盒测试:从算法对齐视角解析 GEO 优化的技术指标体系
大数据·人工智能·算法
上进小菜猪4 小时前
基于深度学习的河道垃圾检测系统设计(YOLOv8)
人工智能
上天夭5 小时前
模型训练篇
人工智能·深度学习·机器学习
小徐Chao努力5 小时前
【Langchain4j-Java AI开发】09-Agent智能体工作流
java·开发语言·人工智能
Blossom.1185 小时前
AI编译器实战:从零手写算子融合与自动调度系统
人工智能·python·深度学习·机器学习·flask·transformer·tornado
Coder_Boy_5 小时前
SpringAI与LangChain4j的智能应用-(理论篇2)
人工智能·spring boot·langchain·springai
却道天凉_好个秋5 小时前
OpenCV(四十八):图像查找
人工智能·opencv·计算机视觉
Coder_Boy_5 小时前
SpringAI与LangChain4j的智能应用-(理论篇3)
java·人工智能·spring boot·langchain
GetcharZp5 小时前
工地“火眼金睛”!手把手带你用 YOLO11 实现安全帽佩戴检测
人工智能·计算机视觉
Codebee5 小时前
Ooder A2UI架构白皮书
人工智能·响应式编程