Focal Loss损失函数理解

简介:Focal Loss损失函数是对交叉熵损失函数的升级。是和yolo配套的

因为yolo会对图像进行网格化处理,会分出正负样本,是多目标检测,而不是简单的分类问题

1. 对比交叉熵损失的区别

多分类:CrossEntropyLoss 公式:

多目标:Focal Loss 公式:

总结多了两个系数,alpha和(1-pt)^gama

2. 分析参数alpha

个人理解:alpha是用来控制正负样本数差别太大的。负样本因为数量往往太多,而使用较小的alpha如0.25来乘以损失值,正样本因为数量往往太少,而使用较大的alpha如0.75来乘以损失值。

官方解释:

  • 类别平衡因子 α\alphaα 的主要作用是直接增加正样本(目标区域)的损失权重,减少负样本(背景区域)对总损失的贡献。
  • 当负样本远多于正样本时, α\alphaα 通常设置为正样本的权重较高(如 αpos=0.75\alpha_{\text{pos}} = 0.75αpos=0.75, αneg=0.25\alpha_{\text{neg}} = 0.25αneg=0.25)。这种方式在总损失中人为地降低了背景区域的占比

3. 分析参数(1-pt)^gama

个人理解:这个参数是站在正样本的基础上来控制损失的。对于小目标,难分辨的目标,因为往往这类目标的预测概率值(分数)很小,引入(1-pt)^gama,当小目标预测分数很小趋近0时,1-pt则会趋近1,所以就会让这类小目标的损失不变。但是容易区分的目标预测分数高,1-pt会趋近0,则会显著降低容易区分目标的损失。整体来说,就会让模型关注到这类小目标区域取降低其损失

官方解释:

4.如何减少背景区域的影响?

这两部分共同作用:

  1. 动态调整因子(1 - p_t)^gamma:

    • 对背景区域(负样本)的预测 pt 通常接近 1, (1 - p_t)^gamma 会使这些样本的损失趋近于 0,从而减少它们的影响。
    • 对于目标区域(正样本),由于 pt 较低, (1 - p_t)^gamma的值更大,使得模型更加关注这些区域。
  2. 类别平衡因子 α:

    • 人为调高目标区域的损失占比,进一步减少背景区域对总损失的贡献。

个人理解:

对于背景区域(负样本),模型认为负样本中为背景的概率趋近于1,1-pt则趋近于0,则降低了负样本的损失,让模型对负样本的学习减少。对于目标区域,模型认为负样本中为目标的概率趋近于0,1-pt则趋近于1,保持了目标区域的损失,让模型更关注目标区域的学习。

1-pt有两个作用:1. 对于负样本的训练,降低负样本的损失,减少负样本对模型的影响 2.对于正样本的训练,增加了正样本中小目标的损失,让模型更关注小目标的训练

alpha的作用只有一个,降低负样本的损失,增加正样本的损失。达到模型跟关注正样本的趋势,平衡掉负样本数量远大于正样本的影响

相关推荐
甲枫叶5 小时前
【claude产品经理系列11】实现后端接口——数据在背后如何流动
java·数据库·人工智能·产品经理·ai编程·visual studio code
甲枫叶5 小时前
【claude产品经理系列12】接入数据库——让数据永久保存
java·数据库·人工智能·产品经理·ai编程
240291003375 小时前
自编码器(AE)与变分自编码器(VAE)-- 认识篇
python·神经网络·机器学习
敲代码的哈吉蜂5 小时前
haproxy的算法——混合算法
linux·运维·服务器·算法
用户5191495848456 小时前
Linux Mint或Ubuntu上安装Nmap的三种不同方法
人工智能·aigc
追随者永远是胜利者6 小时前
(LeetCode-Hot100)283. 移动零
java·算法·leetcode·职场和发展·go
TAPD敏捷研发6 小时前
腾讯TAPD × CNB 联合赋能,开通TAPD项目管理工具就送价值1万元CNB云原生构建资源包!
人工智能·云原生·项目管理·代码管理·腾讯云ai代码助手·mcp·ai代码助手
咚咚王者6 小时前
人工智能之视觉领域 计算机视觉 第十二章 视频目标跟踪
人工智能·计算机视觉·音视频
We་ct6 小时前
LeetCode 129. 求根节点到叶节点数字之和:两种解法详解(栈+递归)
前端·算法·leetcode·typescript
Elastic 中国社区官方博客6 小时前
Elasticsearch:通过最小分数确保语义精度
大数据·数据库·人工智能·elasticsearch·搜索引擎·ai·全文检索