【目标检测中对IoU的改进】GIoU,DIoU,CIoU的详细介绍

文章目录

  • 1、IoU
  • [2、GIoU(Generalized Intersection over Union)](#2、GIoU(Generalized Intersection over Union))
  • 3、DIoU
  • 4、CIoU

1、IoU

  • IoU为交并比,即对于pred和Ground Truth:交集/并集

1、IoU可以作为评价指标使用,也可以用于构建IoU loss = 1 - IoU

缺点:

2、对于pred和GT相交的情况下,IoU loss可以被反向传播,因为IoU不为0,可以计算梯度。但是二者不相交的话,梯度将会为0,无法优化。

3、pred和GT不相交时,IoU为0,因此无法判断二者距离是远还是近

4、IOU不能反映两个物体如何重叠(相交方式)。两种情况下的IOU均为0.14,但(a)中两框要比(b)中的相交更整齐一些。

2、GIoU(Generalized Intersection over Union)

  • 考虑到上述IoU的缺点,在GIoU中做了改进。
  • C是包含A与B的最小框,即两个框的外接矩形框

1、GIoU对不相交的情况下,不为0,因此使用GIoU loss = 1 - GIoU可以进行梯度的反向传播

2、GIoU可以反应二者的相交情况,对的更齐时GIoU更大,例如上面的第二幅图

3、GIoU可以更好的反应pred和GT之间的距离情况

3、DIoU

  • DIoU主要考虑了如下的情况
  • 即pred完全在GT内部,IoU和GIoU就相同了,不能判断pred中心位置是否接近GT中心
  • 因此,DIoU Loss是在IoU Loss基础上引入一个距离惩罚项,定义如下:
  • 上述损失函数中,b,bgt分别代表了anchor框和目标框的中心点,且$$代表的是计算两个中心点间的欧式距离。c代表的是能够同时覆盖anchor和目标框的最小矩形的对角线距离,相当于做了归一化:d/c,如下图所示。

1、与GIoU loss类似,DIoU loss在与目标框不相交时,梯度不为0,可以进行优化。

2、收敛更快:DIoU loss可以直接最小化两个目标框的距离,而GIOU loss优化的是两个目标框之间的面积,因此比GIoU loss收敛快得多。

3、对于包含两个框在水平方向和垂直方向上这种情况,DIoU损失可以使回归非常快,而GIoU损失几乎退化为IoU损失

  • DIoU要比GIoU更加符合bbox回归的机制,将GT与pred之间的距离,重叠率以及尺度都考虑进去,使得目标框回归变得更加稳定,不会像IoU和GIoU一样出现训练过程中发散等问题。

4、CIoU

  • 考虑到pred和GT之间的长宽比也是很重要的,因此CIOU Loss又引入一个box长宽比的惩罚项:

参考链接:https://blog.csdn.net/leonardohaig/article/details/103394369

相关推荐
ifeng09181 天前
HarmonyOS资源加载进阶:惰性加载、预加载与缓存机制
深度学习·缓存·harmonyos
antonytyler1 天前
机器学习实践项目(二)- 房价预测增强篇 - 特征工程四
人工智能·python·机器学习
飞哥数智坊1 天前
TRAE SOLO 正式版上线,限时免费活动开启
人工智能·trae·solo
Danceful_YJ1 天前
34.来自Transformers的双向编码器表示(BERT)
人工智能·深度学习·bert
love530love1 天前
【笔记】xFormers版本与PyTorch、CUDA对应关系及正确安装方法详解
人工智能·pytorch·windows·笔记·python·深度学习·xformers
中科岩创1 天前
某地公园桥梁自动化监测服务项目
大数据·人工智能·物联网·自动化
kev_gogo1 天前
【链式法则】神经网络中求导时w既是常数也是自变量的辨析(能否对常数求导?)
人工智能·深度学习·神经网络
文真同学1 天前
《动手学深度学习》6.3~6.4
人工智能·深度学习
受之以蒙1 天前
赋能 AI 与具身智能:Rust ndarray 构建安全高效的数据底座
人工智能·笔记·rust
Fuly10241 天前
LangGraph基础教程(4)---LangGraph的核心能力
人工智能·langchain