目标检测模型选型决策树
核心原则 :以业务需求优先级(精度/速度/部署环境)为导向,结合模型特性快速匹配
开始选型
├─ 核心需求优先级?
│ ├─ 1. 精度优先(FPS无硬性要求,mAP越高越好)
│ │ ├─ 是否需要同时做实例分割?
│ │ │ ├─ 是 → Mask R-CNN(医疗影像/工业质检)
│ │ │ └─ 否
│ │ │ ├─ 接受较慢速度 → Faster R-CNN(经典二阶段,稳定可靠)
│ │ │ ├─ 需平衡精度与速度 → RetinaNet(Focal Loss解决样本不平衡)
│ │ │ └─ 需全局特征(遮挡/复杂背景) → YOLOv11(CNN+Transformer融合)
│ │
│ ├─ 2. 速度优先(实时性要求,FPS ≥ 30)
│ │ ├─ 是否需要多任务(检测+分类+分割)?
│ │ │ ├─ 是 → YOLOv8(多任务支持,Anchor-Free架构)
│ │ │ └─ 否
│ │ │ ├─ 通用场景 → YOLOv5s(工程化成熟,社区生态丰富)
│ │ │ └─ 超高帧率需求 → YOLOv3(速度快,部署简单)
│ │
│ ├─ 3. 移动端/边缘端部署(低算力/低功耗,如手机/单片机/智能摄像头)
│ │ ├─ 极致轻量化(参数量 < 5M)?
│ │ │ ├─ 是 → Tiny-YOLOv5(1.9M参数,240 FPS,牺牲少量精度)
│ │ │ └─ 否
│ │ │ ├─ 平衡精度与功耗 → MobileNet-SSD(4.4M参数,移动端首选)
│ │ │ └─ 小目标检测需求 → CenterNet轻量版(Hourglass-52骨干)
│ │
│ └─ 4. 特殊场景(非通用目标)
│ ├─ 小目标密集(如行人/文本/无人机航拍) → CenterNet(中心点检测,小目标友好)
│ ├─ 遮挡严重/长距离依赖(如自动驾驶) → DETR(Transformer全局注意力)
│ ├─ 异形目标(如工业零件/农产品) → CornerNet(角点配对,形状适应性强)
│ └─ 自动驾驶感知(高精度+实时) → YOLOv11(融合CNN+Transformer,兼顾局部/全局)
└─ 选型后验证 → 基于自有数据集微调骨干网络 → 测试实际硬件性能
选型小贴士
- 若数据集样本不平衡 (如少数类目标占比低),优先选带 Focal Loss 的模型(RetinaNet、YOLOv8)。
- 若目标尺寸差异大 (如同时检测大货车和行人),优先选多尺度检测模型(YOLO系列、SSD)。
- 所有模型都需基于自有业务数据集微调,通用数据集(COCO)的性能不等于实际业务性能。