【目标检测中对IoU的改进】GIoU,DIoU,CIoU的详细介绍

文章目录

  • 1、IoU
  • [2、GIoU(Generalized Intersection over Union)](#2、GIoU(Generalized Intersection over Union))
  • 3、DIoU
  • 4、CIoU

1、IoU

  • IoU为交并比,即对于pred和Ground Truth:交集/并集

1、IoU可以作为评价指标使用,也可以用于构建IoU loss = 1 - IoU

缺点:

2、对于pred和GT相交的情况下,IoU loss可以被反向传播,因为IoU不为0,可以计算梯度。但是二者不相交的话,梯度将会为0,无法优化。

3、pred和GT不相交时,IoU为0,因此无法判断二者距离是远还是近

4、IOU不能反映两个物体如何重叠(相交方式)。两种情况下的IOU均为0.14,但(a)中两框要比(b)中的相交更整齐一些。

2、GIoU(Generalized Intersection over Union)

  • 考虑到上述IoU的缺点,在GIoU中做了改进。
  • C是包含A与B的最小框,即两个框的外接矩形框

1、GIoU对不相交的情况下,不为0,因此使用GIoU loss = 1 - GIoU可以进行梯度的反向传播

2、GIoU可以反应二者的相交情况,对的更齐时GIoU更大,例如上面的第二幅图

3、GIoU可以更好的反应pred和GT之间的距离情况

3、DIoU

  • DIoU主要考虑了如下的情况
  • 即pred完全在GT内部,IoU和GIoU就相同了,不能判断pred中心位置是否接近GT中心
  • 因此,DIoU Loss是在IoU Loss基础上引入一个距离惩罚项,定义如下:
  • 上述损失函数中,b,bgt分别代表了anchor框和目标框的中心点,且$$代表的是计算两个中心点间的欧式距离。c代表的是能够同时覆盖anchor和目标框的最小矩形的对角线距离,相当于做了归一化:d/c,如下图所示。

1、与GIoU loss类似,DIoU loss在与目标框不相交时,梯度不为0,可以进行优化。

2、收敛更快:DIoU loss可以直接最小化两个目标框的距离,而GIOU loss优化的是两个目标框之间的面积,因此比GIoU loss收敛快得多。

3、对于包含两个框在水平方向和垂直方向上这种情况,DIoU损失可以使回归非常快,而GIoU损失几乎退化为IoU损失

  • DIoU要比GIoU更加符合bbox回归的机制,将GT与pred之间的距离,重叠率以及尺度都考虑进去,使得目标框回归变得更加稳定,不会像IoU和GIoU一样出现训练过程中发散等问题。

4、CIoU

  • 考虑到pred和GT之间的长宽比也是很重要的,因此CIOU Loss又引入一个box长宽比的惩罚项:

参考链接:https://blog.csdn.net/leonardohaig/article/details/103394369

相关推荐
聚客AI3 分钟前
Embedding进化论:从Word2Vec到OpenAI三代模型技术跃迁
人工智能·llm·掘金·日新计划
weixin_3875456422 分钟前
深入解析 AI Gateway:新一代智能流量控制中枢
人工智能·gateway
聽雨23739 分钟前
03每日简报20250705
人工智能·社交电子·娱乐·传媒·媒体
二川bro1 小时前
飞算智造JavaAI:智能编程革命——AI重构Java开发新范式
java·人工智能·重构
acstdm1 小时前
DAY 48 CBAM注意力
人工智能·深度学习·机器学习
澪-sl1 小时前
基于CNN的人脸关键点检测
人工智能·深度学习·神经网络·计算机视觉·cnn·视觉检测·卷积神经网络
羊小猪~~2 小时前
数据库学习笔记(十七)--触发器的使用
数据库·人工智能·后端·sql·深度学习·mysql·考研
摸爬滚打李上进2 小时前
重生学AI第十六集:线性层nn.Linear
人工智能·pytorch·python·神经网络·机器学习
HuashuiMu花水木2 小时前
PyTorch笔记1----------Tensor(张量):基本概念、创建、属性、算数运算
人工智能·pytorch·笔记
lishaoan772 小时前
使用tensorflow的线性回归的例子(四)
人工智能·tensorflow·线性回归