【目标检测中对IoU的改进】GIoU,DIoU,CIoU的详细介绍

文章目录

  • 1、IoU
  • [2、GIoU(Generalized Intersection over Union)](#2、GIoU(Generalized Intersection over Union))
  • 3、DIoU
  • 4、CIoU

1、IoU

  • IoU为交并比,即对于pred和Ground Truth:交集/并集

1、IoU可以作为评价指标使用,也可以用于构建IoU loss = 1 - IoU

缺点:

2、对于pred和GT相交的情况下,IoU loss可以被反向传播,因为IoU不为0,可以计算梯度。但是二者不相交的话,梯度将会为0,无法优化。

3、pred和GT不相交时,IoU为0,因此无法判断二者距离是远还是近

4、IOU不能反映两个物体如何重叠(相交方式)。两种情况下的IOU均为0.14,但(a)中两框要比(b)中的相交更整齐一些。

2、GIoU(Generalized Intersection over Union)

  • 考虑到上述IoU的缺点,在GIoU中做了改进。
  • C是包含A与B的最小框,即两个框的外接矩形框

1、GIoU对不相交的情况下,不为0,因此使用GIoU loss = 1 - GIoU可以进行梯度的反向传播

2、GIoU可以反应二者的相交情况,对的更齐时GIoU更大,例如上面的第二幅图

3、GIoU可以更好的反应pred和GT之间的距离情况

3、DIoU

  • DIoU主要考虑了如下的情况
  • 即pred完全在GT内部,IoU和GIoU就相同了,不能判断pred中心位置是否接近GT中心
  • 因此,DIoU Loss是在IoU Loss基础上引入一个距离惩罚项,定义如下:
  • 上述损失函数中,b,bgt分别代表了anchor框和目标框的中心点,且$$代表的是计算两个中心点间的欧式距离。c代表的是能够同时覆盖anchor和目标框的最小矩形的对角线距离,相当于做了归一化:d/c,如下图所示。

1、与GIoU loss类似,DIoU loss在与目标框不相交时,梯度不为0,可以进行优化。

2、收敛更快:DIoU loss可以直接最小化两个目标框的距离,而GIOU loss优化的是两个目标框之间的面积,因此比GIoU loss收敛快得多。

3、对于包含两个框在水平方向和垂直方向上这种情况,DIoU损失可以使回归非常快,而GIoU损失几乎退化为IoU损失

  • DIoU要比GIoU更加符合bbox回归的机制,将GT与pred之间的距离,重叠率以及尺度都考虑进去,使得目标框回归变得更加稳定,不会像IoU和GIoU一样出现训练过程中发散等问题。

4、CIoU

  • 考虑到pred和GT之间的长宽比也是很重要的,因此CIOU Loss又引入一个box长宽比的惩罚项:

参考链接:https://blog.csdn.net/leonardohaig/article/details/103394369

相关推荐
小女孩真可爱1 分钟前
大模型学习记录(八)---------RAG评估
linux·人工智能·python
阿里云大数据AI技术1 分钟前
MaxCompute SQL AI:让 SQL 成为你的 AI 语言
人工智能·sql
www7697 分钟前
从神经科学到软件工程:一个智能体架构的设计反思
人工智能
Feisy9 分钟前
使用深度学习检测元器件是否缺失零件-怎么快速地批量采集深度学习训练用的图片
人工智能·深度学习
阿里云大数据AI技术10 分钟前
MaxCompute SQL AI:让SQL成为你的AI语言
人工智能·sql
乾元12 分钟前
AI + Jinja2/Ansible:从自然语义到可执行 Playbook 的完整流水线(工程级深度)
运维·网络·人工智能·网络协议·华为·自动化·ansible
亚里随笔17 分钟前
MiniRL:用LLM稳定强化学习的新范式与第一阶近似理论
人工智能·深度学习·机器学习·llm·rlhf·agentic
Token_w18 分钟前
我的openEuler云原生与AI开发现实际体验
人工智能·云原生
free-elcmacom21 分钟前
用Python玩转GAN:让AI学会“造假”的艺术
人工智能·python·机器学习
一条破秋裤1 小时前
零样本学习指标
深度学习·学习·机器学习