【目标检测中对IoU的改进】GIoU,DIoU,CIoU的详细介绍

文章目录

  • 1、IoU
  • [2、GIoU(Generalized Intersection over Union)](#2、GIoU(Generalized Intersection over Union))
  • 3、DIoU
  • 4、CIoU

1、IoU

  • IoU为交并比,即对于pred和Ground Truth:交集/并集

1、IoU可以作为评价指标使用,也可以用于构建IoU loss = 1 - IoU

缺点:

2、对于pred和GT相交的情况下,IoU loss可以被反向传播,因为IoU不为0,可以计算梯度。但是二者不相交的话,梯度将会为0,无法优化。

3、pred和GT不相交时,IoU为0,因此无法判断二者距离是远还是近

4、IOU不能反映两个物体如何重叠(相交方式)。两种情况下的IOU均为0.14,但(a)中两框要比(b)中的相交更整齐一些。

2、GIoU(Generalized Intersection over Union)

  • 考虑到上述IoU的缺点,在GIoU中做了改进。
  • C是包含A与B的最小框,即两个框的外接矩形框

1、GIoU对不相交的情况下,不为0,因此使用GIoU loss = 1 - GIoU可以进行梯度的反向传播

2、GIoU可以反应二者的相交情况,对的更齐时GIoU更大,例如上面的第二幅图

3、GIoU可以更好的反应pred和GT之间的距离情况

3、DIoU

  • DIoU主要考虑了如下的情况
  • 即pred完全在GT内部,IoU和GIoU就相同了,不能判断pred中心位置是否接近GT中心
  • 因此,DIoU Loss是在IoU Loss基础上引入一个距离惩罚项,定义如下:
  • 上述损失函数中,b,bgt分别代表了anchor框和目标框的中心点,且$$代表的是计算两个中心点间的欧式距离。c代表的是能够同时覆盖anchor和目标框的最小矩形的对角线距离,相当于做了归一化:d/c,如下图所示。

1、与GIoU loss类似,DIoU loss在与目标框不相交时,梯度不为0,可以进行优化。

2、收敛更快:DIoU loss可以直接最小化两个目标框的距离,而GIOU loss优化的是两个目标框之间的面积,因此比GIoU loss收敛快得多。

3、对于包含两个框在水平方向和垂直方向上这种情况,DIoU损失可以使回归非常快,而GIoU损失几乎退化为IoU损失

  • DIoU要比GIoU更加符合bbox回归的机制,将GT与pred之间的距离,重叠率以及尺度都考虑进去,使得目标框回归变得更加稳定,不会像IoU和GIoU一样出现训练过程中发散等问题。

4、CIoU

  • 考虑到pred和GT之间的长宽比也是很重要的,因此CIOU Loss又引入一个box长宽比的惩罚项:

参考链接:https://blog.csdn.net/leonardohaig/article/details/103394369

相关推荐
Ulana16 分钟前
计算机基础10大高频考题解析
java·人工智能·算法
windfantasy199017 分钟前
NCT与GESP哪个更好?线上监考与线下考点的便利性对比
人工智能
执笔论英雄19 分钟前
【LORA】
人工智能
Jerryhut32 分钟前
Bev感知特征空间算法
人工智能
xian_wwq42 分钟前
【学习笔记】基于人工智能的火电机组全局性能一体化优化研究
人工智能·笔记·学习·火电
春风LiuK1 小时前
虚实无界:VRAR如何重塑课堂与突破研究边界
人工智能·程序人生
歌_顿1 小时前
Embedding 模型word2vec/glove/fasttext/elmo/doc2vec/infersent学习总结
人工智能·算法
胡萝卜3.01 小时前
深入C++可调用对象:从function包装到bind参数适配的技术实现
开发语言·c++·人工智能·机器学习·bind·function·包装器
Echo_NGC22371 小时前
【KL 散度】深入理解 Kullback-Leibler Divergence:AI 如何衡量“像不像”的问题
人工智能·算法·机器学习·散度·kl
愤怒的可乐1 小时前
从零构建大模型智能体:OpenAI Function Calling智能体实战
人工智能·大模型·智能体