目标检测-One Stage-YOLO v3

文章目录

  • 前言
  • [一、YOLO v3的网络结构和流程](#一、YOLO v3的网络结构和流程)
  • [二、YOLO v3的创新点](#二、YOLO v3的创新点)
  • 总结

前言

根据前文目标检测-One Stage-YOLOv2可以看出YOLOv2的速度和精度都有相当程度的提升,但是精度仍较低,YOLO v3基于一些先进的结构和思想对YOLO v2做了一些改进。


提示:以下是本篇文章正文内容,下面内容和可供参考

一、YOLO v3的网络结构和流程

  1. 将影像输入卷积网络(DarkNet53)+FPN得到多尺度特征图

ps:Darknet53,由Darknet19结合Resnet而成

  1. 利用anchor机制获取预选框
  2. 将上一步得到的anchor输入不同的分类和边框回归器
  3. 使用非极大值抑制NMS去除冗余窗口

二、YOLO v3的创新点

具体来说,没有什么大的创新点,但是结合先进的思想改进了YOLOv2:

  • 将backbone的网络结构进行了改进,将Darknet19结合Resnet(残差块轻量化),变成了Darknet53(Darknet53的性能与ResNet152相似,速度快2倍)
  • 引入多尺度特征图(feature maps),每个尺寸的feature map各司其职,13 × 13负责大目标物体,26 × 26负责中目标物体和52 × 52负责小目标物体。原因很简单,越深层的信息越抽象,越浅层的越粗糙,浅层还保留着小物体的信息,深层就不一定还在了。

ps:和SSD一样,感受野小的feature map检测小目标(较小的scale),使用感受野大的feature map检测更大目标(较大的scale),但加入了特征融合机制。

  • 类别预测方面使用多个逻辑回归分类器(logistic)代替softmax分类器,以此来确定预测框属于多类的可能
  1. softmax(全部类别的概率之和为1)假定全部类别是互斥的,即如果预测框属于类别A,那么就不可能属于类别B
  2. 但面对非互斥类别集时,softmax不能判别多类别归属,比如预测框可能既属于"动物",又属于"狗",尤其对于Open Images这种数据集,目标可能有重叠的类别标签
  3. 因此yolov3使用不同的logistic回归分类器(数量和类别数对应)检验bbox为每个类别的置信度(objectness score),如果超过一定阈值,就可认为bbox属于某个类别,即可实现多类别分类

总结

YOLOv3-320(28.2mAP)与SSD321一样准确(28.0mAP[.5, .95]),但速度快三倍(61ms -> 22ms)

在mAP50上(57.9),YOLOv3-608和当时的SOTA(RetinaNet-101-800)精度一样(57.5),但要快3.8倍(198ms -> 51ms)

相关推荐
AI_小站2 小时前
6个GitHub爆火的免费大模型教程,助你快速进阶AI编程
人工智能·langchain·github·知识图谱·agent·llama·rag
xindoo2 小时前
GitHub Trending霸榜!深度解析AI Coding辅助神器 Superpowers
人工智能·github
时间之里2 小时前
【深度学习】:RF-DETR与yolo对比
人工智能·深度学习·yolo
北京阿法龙科技有限公司2 小时前
数智化升级:AR 智能眼镜驱动工业运维效能革新
人工智能
风落无尘2 小时前
《智能重生:从垃圾堆到AI工程师》——第二章 概率与生存
大数据·人工智能
j_xxx404_3 小时前
Linux:静态链接与动态链接深度解析
linux·运维·服务器·c++·人工智能
收获不止数据库3 小时前
达梦9发布会归来:AI 时代,我们需要一款什么样的数据库?
数据库·人工智能·ai·语言模型·数据分析
hhb_6183 小时前
AI全栈编程生存指南
人工智能
AI-Frontiers3 小时前
transformer进阶之路:#2 工作原理详解
人工智能·深度学习·transformer
昵称小白3 小时前
复杂度分析方法
算法