【目标检测】Focal Loss

Focal Loss用来解决正负样本不平衡问题,并提升训练过程对困难样本的关注。

在一阶段目标检测算法中,以YOLO v3为例,计算置信度损失(图中第3、4项)时有目标的点少,无目标的点多,两者可能相差百倍千倍甚至更多,这就导致无目标的置信度损失会以压倒性的数量优势在数值上淹没有目标的置信度损失。

首先,我们回顾一下第三、四项里 [ ⋅ ] [\cdot] [⋅]所对应的BCELoss,其公式如下:

其中, p ∈ [ 0 , 1 ] p\in[0,1] p∈[0,1]是经sigmoid输出的预测概率, y ∈ { 0 , 1 } y\in\{0,1\} y∈{0,1}是真实标签。简单起见,我们使用 p t p_t pt简化上述损失, p t p_t pt公式如下:

于是,我们得到

在此基础上,Focal Loss引入 α t \alpha_t αt来加权BCELoss以解决正负样本不平衡的问题,公式如下:

其中, α t \alpha_t αt定义如下:

其中, α ∈ [ 0 , 1 ] \alpha\in[0,1] α∈[0,1]是自行设定的权重参数。直观来说,当正样本较少时,我们可以设定一个较大的 α \alpha α,例如 0.9 0.9 0.9,这样正样本的损失相比负样本的损失就会更大从而解决正负样本失衡的问题。

⚠️ 事实上,Focal Loss原文中的最佳 α \alpha α是 0.25 0.25 0.25,这说明原文并不是用它来处理正负样本失衡的,更像是一个超参数。

进一步地,Focal Loss还能使得模型在训练过程中更加关注困难样本 。对于正样本来说,我们希望预测概率 p → 1 p\rightarrow 1 p→1,那么 p p p越小说明该样本预测起来就越困难,反之就越简单。对于负样本, p p p越小说明该样本预测起来就越简单,反之就越困难。直观上,我们只需努力矫正困难样本,毕竟简单样本已经预测的不错了,于是Focal Loss引入 ( 1 − p t ) γ (1-p_t)^{\gamma} (1−pt)γ来加权BCELoss以实习对困难样本的关注,公式如下:

其中, γ ≥ 0 \gamma\geq0 γ≥0,从下表可以看出, ( 1 − p t ) γ (1-p_t)^{\gamma} (1−pt)γ使简单样本的损失大大降低,从而使困难样本与简单样本的损失比增大,以使训练过程更加关注困难样本。

y y y γ \gamma γ p p p p t p_t pt C E ( p , y ) CE(p,y) CE(p,y) ( 1 − p t ) γ (1-p_t)^{\gamma} (1−pt)γ F L ( p t ) FL(p_t) FL(pt)
1 2 0.9 0.9 0.11 0.01 0.0011
1 2 0.1 0.1 2.30 0.81 1.863
0 2 0.2 0.8 0.22 0.04 0.0088
0 2 0.8 0.2 1.61 0.64 1.0304

综合 α t \alpha_t αt和 ( 1 − p t ) γ (1-p_t)^{\gamma} (1−pt)γ即为完整的Focal Loss,公式如下:

写成 p p p和 α \alpha α的形式就是:
F L ( p ) = { − α ( 1 − p ) γ log ⁡ ( p ) , i f y = 1 − ( 1 − α ) p γ log ⁡ ( 1 − p ) , o t h e r w i s e FL(p)=\begin{cases}-\alpha(1-p)^{\gamma}\log(p),&if~y=1\\-(1-\alpha)p^{\gamma}\log(1-p), &otherwise\end{cases} FL(p)={−α(1−p)γlog(p),−(1−α)pγlog(1−p),if y=1otherwise

致谢:

本博客仅做记录使用,无任何商业用途,参考内容如下:
3.1 YOLO系列理论合集(YOLOv1~v3)

相关推荐
aneasystone本尊2 小时前
学习 Chat2Graph 的知识库服务
人工智能
IT_陈寒2 小时前
Redis 性能翻倍的 7 个冷门技巧,第 5 个大多数人都不知道!
前端·人工智能·后端
飞哥数智坊12 小时前
GPT-5-Codex 发布,Codex 正在取代 Claude
人工智能·ai编程
倔强青铜三12 小时前
苦练Python第46天:文件写入与上下文管理器
人工智能·python·面试
虫无涯13 小时前
Dify Agent + AntV 实战:从 0 到 1 打造数据可视化解决方案
人工智能
Dm_dotnet15 小时前
公益站Agent Router注册送200刀额度竟然是真的
人工智能
算家计算16 小时前
7B参数拿下30个世界第一!Hunyuan-MT-7B本地部署教程:腾讯混元开源业界首个翻译集成模型
人工智能·开源
机器之心16 小时前
LLM开源2.0大洗牌:60个出局,39个上桌,AI Coding疯魔,TensorFlow已死
人工智能·openai
Juchecar17 小时前
交叉熵:深度学习中最常用的损失函数
人工智能
林木森ai17 小时前
爆款AI动物运动会视频,用Coze(扣子)一键搞定全流程(附保姆级拆解)
人工智能·aigc