背景
单目3D目标检测(Mono3D)在自动驾驶领域具有重要应用价值,因为它成本低且能够利用丰富的视觉上下文信息。然而,单目相机的深度模糊性(depth ambiguity)是一个关键挑战,因为需要从单张图像中提取精确的3D场景几何信息。传统的知识蒸馏方法尝试将基于LiDAR的教师模型的知识迁移到基于相机的学生模型,但由于LiDAR和相机模态之间的特征表示差距较大,这种跨模态蒸馏效果往往不佳。

图1展示了MonoTAKD框架与其他方法的对比。以往方法在将基于LiDAR的教师模型的知识迁移到基于相机的学生模型时,面临特征表示差距大的问题,导致蒸馏效果不佳。而MonoTAKD通过引入一个基于相机的助教模型(TA),利用同模态蒸馏(IMD)缩小了特征表示差距,同时通过跨模态残差蒸馏(CMRD)将LiDAR教师模型和TA模型之间的关键3D空间线索(残差特征)传递给学生模型,从而提升了学生模型的3D感知能力。图中还展示了各模型的鸟瞰图(BEV)特征,以及TA模型和教师模型之间的残差特征,突出了MonoTAKD在特征对齐和3D信息传递方面的优势。
创新点
- 提出MonoTAKD框架:引入了一个基于相机的"助教模型"(Teaching Assistant, TA),通过同模态蒸馏(Intra-modal Distillation, IMD)将3D视觉知识传递给学生模型,缩小了特征表示差距。
- 跨模态残差蒸馏(Cross-modal Residual Distillation, CMRD):定义了3D空间线索为残差特征,通过计算LiDAR教师模型和TA模型之间的特征差异,将这些关键的3D空间线索传递给学生模型。
- 空间对齐模块(SAM)和特征融合模块(FFM):SAM用于增强学生的鸟瞰图(BEV)特征,FFM用于整合来自不同分支的特征,从而提升学生的3D感知能力。
研究方法
文章的方法部分详细介绍了MonoTAKD框架的设计和实现,具体包括以下几个核心模块和步骤:
-
框架概述 :MonoTAKD包含三个核心模块:基于LiDAR的教师模型(Teacher)、基于相机的助教模型(TA)和基于相机的学生模型(Student)。这些模块通过图(BEV)特征的传播实现知识蒸馏,以提升学生模型的3D感知能力。
图2展示了MonoTAKD的整体架构,包含三个核心模块:基于LiDAR的教师模型(Teacher)、基于相机的助教模型(TA)和基于相机的学生模型(Student)。教师模型通过体素化LiDAR点云生成鸟瞰图(BEV)特征;助教模型利用真实的深度图(GT depth map)生成高质量的BEV特征,作为3D视觉知识;学生模型通过双分支结构分别学习视觉知识(IMD)和空间线索(CMRD),并通过空间对齐模块(SAM)和特征融合模块(FFM)提升其BEV特征的3D感知能力,最终实现高效的跨模态知识蒸馏。
-
教师模型(LiDAR-based Teacher):教师模型利用预训练的LiDAR模型,将点云数据体素化后通过3D稀疏卷积层提取特征,并通过高度压缩将其嵌入到BEV空间,生成高质量的BEV特征。
-
助教模型(Camera-based Teaching Assistant):助教模型基于相机,利用真实的深度图(GT depth map)生成高质量的BEV特征。通过外积操作将视觉特征与深度图结合,注入准确的深度信息,减少因深度估计不准确导致的特征失真。
-
学生模型(Camera-based Student):学生模型通过双分支结构分别学习视觉知识(IMD)和空间线索(CMRD)。通过同模态蒸馏(IMD),学生模型学习助教模型的BEV特征;通过跨模态残差蒸馏(CMRD),学生模型专注于学习LiDAR教师模型和助教模型之间的残差特征。
-
空间对齐模块(SAM) :SAM通过级联空洞卷积(Atrous Conv)和可变形卷积(Deformable Conv)捕捉全局信息并解决空间错位问题。Atrous空间金字塔池化(ASPP)扩展感受野以捕捉更丰富的3D信息,而可变形卷积调整空间偏移以解决深度估计不准确导致的特征错位。
图3展示了空间对齐模块(SAM)的结构,该模块通过级联空洞卷积(Atrous Conv)和可变形卷积(Deformable Conv)来学习图(BEV)特征的对齐。具体来说,Atrous空间金字塔池化(ASPP)利用多尺度空洞卷积扩展感受野,鼓励模型捕捉更丰富的3D信息;可变形卷积则通过调整空间偏移来解决因深度估计不准确导致的特征空间错位问题。此外,SAM还结合了一个SENet块用于通道注意力重校准,从而提升模型对关键3D空间线索的敏感性。通过这些设计,SAM能够有效增强特征对齐,并将有价值的空间信息整合到学生模型的BEV特征中,进而提升其3D感知能力。
-
特征融合模块(FFM):FFM将学生模型的两个分支特征(视觉特征和空间特征)进行融合,通过逐元素相加和卷积层生成统一的BEV特征,用于最终的3D目标检测。
-
损失函数:总损失函数结合了IMD损失、CMRD损失和logit蒸馏损失,通过端到端训练指导知识蒸馏过程。
实验
-
数据集和评估指标:
- KITTI3D:主要评估3D检测性能(AP3D)和鸟瞰图检测性能(APBEV),分为简单、中等和困难三个难度级别。
- nuScenes:使用NDS和mAP作为主要评估指标,验证模型在多视角设置中的泛化能力。
-
主要结果:
- KITTI3D:MonoTAKD在所有难度级别上均优于现有方法,例如在AP3D上比第二名高出2.30%,在APBEV上高出1.88%。
- nuScenes:在BEVFormer和BEVDepth等多视角模型上,MonoTAKD显著提升了NDS和mAP,验证了其泛化能力。

- 消融实验 :
- 验证了IMD和CMRD的有效性,表明结合残差特征的学习比直接复制LiDAR特征更有效。
- SAM和FFM模块显著提升了学生模型的性能,特别是在处理远近区域的空间偏移时。


- 效率分析 :
- MonoTAKD在参数量和FLOPs上优于现有方法,同时保持了更高的检测精度。
- 即使在移除SAM和FFM模块的轻量化版本中,MonoTAKD仍然优于其他方法。

总结
MonoTAKD通过引入助教模型和残差蒸馏,有效解决了跨模态知识蒸馏中的特征表示差距问题,在KITTI和nuScenes数据集上均取得了SOTA性能。该方法在自动驾驶领域的实际应用中具有重要的参考价值。