YOLOv2解析 | 批归一化 锚 主干网

文章目录

  • [1 改进](#1 改进)
    • [1.1 Batch Normalization 批归一化](#1.1 Batch Normalization 批归一化)
    • [1.2 High Resolution Classifier 更高分辨率的分类器](#1.2 High Resolution Classifier 更高分辨率的分类器)
    • [1.3 **Convolutional With Anchor Boxes 带锚盒的卷积**](#1.3 Convolutional With Anchor Boxes 带锚盒的卷积)
    • [1.4 Dimension Clusters 维度集群](#1.4 Dimension Clusters 维度集群)
    • [1.5 更深更宽的主干网络](#1.5 更深更宽的主干网络)
    • [1.6 Fine-Grained Features** **细粒度特征 **](#1.6 Fine-Grained Features** **细粒度特征 **)
    • [1.,7 Multi-Scale Training 多尺度训练](#1.,7 Multi-Scale Training 多尺度训练)

YOLOv2的改进

1 改进

1.1 Batch Normalization 批归一化

批归一化技术很常见

Batch Normalization可以提升模型收敛速度,而且可以起到一定正则化效果,降低模型的过拟合。在YOLOv2中,每个卷积层后面都添加了Batch Normalization层,并且不再使用droput。使用Batch Normalization后,YOLOv2的mAP提升了2.4%。

1.2 High Resolution Classifier 更高分辨率的分类器

更高分辨率的分类器实现更平稳的过渡

目前大部分的检测模型都会在先在ImageNet分类数据集上预训练模型的主体部分(CNN特征提取器),由于历史原因,ImageNet分类模型基本采用大小为 224×224 的图片作为输入,分辨率相对较低,不利于检测模型。

YOLOv1的方式是在采用 224×224 分类模型预训练后,将分辨率增加至 448×448 ,并使用这个高分辨率在检测数据集上finetune。但是直接切换分辨率,检测模型可能难以快速适应高分辨率

所以YOLOv2增加了在ImageNet数据集上使用 448×448 输入来finetune分类网络这一中间过程(10 epochs),这可以使得模型在检测数据集上finetune之前已经适用高分辨率输入,然后再切换到使用高分辨率分类器后,YOLOv2的mAP提升了约4%。

1.3 Convolutional With Anchor Boxes 带锚盒的卷积

在YOLOv1中,输入图片最终被划分为 7×7 网格,每个单元格预测2个边界框。YOLOv1最后采用的是全连接层直接对边界框进行预测,其中边界框的宽与高是相对整张图片大小的,而由于各个图片中存在不同尺度和长宽比(scales and ratios)的物体,YOLOv1在训练过程中学习适应不同物体的形状是比较困难的,这也导致YOLOv1在精确定位方面表现较差。

所以YOLOv2改为预测先验框坐标的偏移量,而不是坐标在每个grid预先设定一组不同大小和宽高比的边框,来覆盖整个图像的不同位置和多种尺度

之前YOLOv1并没有采用先验框,并且每个grid只预测两个bounding box,也就是整个图像只有98个bounding box。YOLOv2如果每个grid采用9个先验框,总共有13139=1521个先验框。所以最终YOLOv2去掉了全连接层,使用锚框来预测 Bounding Boxes。

通过这个锚框,降低了准确性mAP,但是提高了召回率

1.4 Dimension Clusters 维度集群

之前Anchor Box的尺寸是手动选择的,所以尺寸还有优化的余地。YOLOv2尝试统计出更符合样本中对象尺寸的先验框,这样就可以减少网络微调先验框到实际位置的难度。YOLOv2的做法是对训练集中标注的边框进行K-means聚类分析,以寻找尽可能匹配样本的边框尺寸。

1.5 更深更宽的主干网络

YOLOv1的backbone使用的是GoogleLeNet,速度比VGG-16快,YOLOv1完成一次前向过程只用8.52 billion 运算,而VGG-16要30.69billion,但是YOLOv1精度稍低于VGG-16。

YOLOv2基于一个新的分类model,有点类似与VGG。YOLOv2使用3*3filter,每次Pooling之后都增加一倍Channels的数量。YOLOv2使用Global Average Pooling,使用Batch Normilazation来让训练更稳定,加速收敛,使model规范化。最终的model--Darknet19,有19个卷积层和5个maxpooling层,处理一张图片只需要5.58 billion次运算,在ImageNet上达到72.9%top-1精确度,91.2%top-5精确度。

1.6 Fine-Grained Features** **细粒度特征 **

目标检测输入的物体可能有大有小,所以如果只用一种大小的特征可能会导致细粒度特征丢失,因而YOLOv2提出了一种passthrough层来利用更精细的特征图。

具体来说,就是在最后一个pooling之前,特征图的大小是26×26×512

一条路是将其1拆4得到四个特征图

另一条路直接传递(passthrough)到pooling后(并且又经过一组卷积)的特征图

两者叠加到一起作为输出的特征图。

1.,7 Multi-Scale Training 多尺度训练

由于YOLOv2模型中只有卷积层和池化层,所以YOLOv2的输入可以不限于 416×416 大小的图片。为了增强模型的鲁棒性,YOLOv2采用了多尺度输入训练策略,具体来说就是在训练过程中每间隔一定的iterations之后改变模型的输入图片大小

由于YOLOv2的下采样总步长为32,输入图片大小选择一系列为32倍数的值: {320,352,...,608} ,输入图片最小为 320×320 ,此时对应的特征图大小为 10×10 ,而输入图片最大为 608×608 ,对应的特征图大小为 19×19 。在训练过程,每隔10个iterations随机选择一种输入图片大小,然后只需要修改对最后检测层的处理就可以重新训练。

相关推荐
mozun20205 小时前
弱小目标检测任务中的YOLO、LSTM和Transformer三种模型对比2025.5.24
人工智能·yolo·目标检测·计算机视觉
学技术的大胜嗷14 小时前
YOLOv8损失函数代码详解(示例展示数据变换过程)
人工智能·python·深度学习·yolo·目标检测
幽络源小助理1 天前
基于Yolov8+PyQT的老人摔倒识别系统源码
yolo·pyqt
土拨鼠不是老鼠1 天前
windows 下用yolov5 训练模型 给到opencv 使用
人工智能·opencv·yolo
jay神1 天前
基于Python+YOLO模型的手势识别系统
开发语言·python·深度学习·yolo·手势识别系统
乐平要加油啊2 天前
YOLOV11改进策略【最新注意力机制】CVPR2025局部区域注意力机制LRSA-增强局部区域特征之间的交互
yolo
不吃香菜?3 天前
YOLOv4深度解析:从架构创新到工业落地的目标检测里程碑
yolo·目标检测·目标跟踪
LeonDL1683 天前
yolo蒸馏的几种方法
人工智能·python·深度学习·yolo·机器学习·yolo数据集·yolo蒸馏的几种方法
LL.。3 天前
labelme进行关键点标注并转换为yolo格式
yolo
熊猫在哪4 天前
野火鲁班猫(arrch64架构debian)从零实现用MobileFaceNet算法进行实时人脸识别(三)用yolov5-face算法实现人脸检测
人工智能·python·嵌入式硬件·神经网络·yolo·目标检测·机器学习