【深度学习实战(22)】解决分类不均衡问题之Focal Loss

一、Focal Loss公式介绍

Focal loss是何恺明大神提出的一种新的loss计算方案。其具有两个重要的特点。

1、控制正负样本的权重

2、控制容易分类和难分类样本的权重

论文:

二分类问题交叉熵损失

公式:

我们可以利用如下Pt简化交叉熵loss。

此时:

代码:

cpp 复制代码
BCE_loss = F.binary_cross_entropy_with_logits(inputs, targets, reduction='none')

正负样本平衡项

-想要降低负样本的影响,可以在常规的损失函数前增加一个系数αt。与Pt类似,当label=1的时候,αt=α;当label=otherwise的时候,αt=1 - α,a的范围也是0到1。此时我们便可以通过设置α实现控制正负样本对loss的贡献。

公式:

其中:

分解开就是:

难易样本平衡项

样本属于某个类,且预测结果中该类的概率越大,其越容易分类 ,在二分类问题中,正样本的标签为1,负样本的标签为0,p代表样本为1类的概率。

对于正样本而言,1-p的值越大,样本越难分类。

对于负样本而言,p的值越大,样本越难分类。

Pt的定义如下

所以利用1-Pt就可以计算出每个样本属于容易分类或者难分类。

具体实现方式如下。

两种权重控制方法合并,就得到了Focal Loss

通过如下公式就可以实现控制正负样本的权重和控制容易分类和难分类样本的权重。

分解开就是:

二、Focal Loss代码实现

cpp 复制代码
import torch
import torch.nn as nn
import torch.functional as F

class WeightedFocalLoss(nn.Module):
    "Non weighted version of Focal Loss"    
    def __init__(self, alpha=.25, gamma=2):
            super(WeightedFocalLoss, self).__init__()  
            # --------------#
            #   平衡正负样本系数
            # --------------#      
            self.alpha = torch.tensor([alpha, 1-alpha]).cuda()      
            # --------------#
            #   平衡难易样本系数
            # --------------#   
            self.gamma = gamma
            
    def forward(self, inputs, targets):
            # --------------#
            #   分类交叉熵损失
            # --------------# 
            BCE_loss = F.binary_cross_entropy_with_logits(inputs, targets, reduction='none')   
            # --------------#
            #   标签GT
            # --------------#      
            targets = targets.type(torch.long)     
            # --------------#
            #   计算at
            # --------------#    
            at = self.alpha.gather(0, targets.data.view(-1))   
            # --------------#
            #   计算pt: BEC_loss = -log(pt)  --> pt = torch.exp(-BCE_loss)   
            # --------------#       
            pt = torch.exp(-BCE_loss)   
            # --------------#
            #   计算Focal Loss
            # --------------#       
            F_loss = at*(1-pt)**self.gamma * BCE_loss        
            return F_loss.mean()
相关推荐
HackTwoHub2 分钟前
全新 AI 赋能网安平台 基于 Mitmproxy 流量分析自动化资产挖、轻量化综合渗透工具箱
人工智能·web安全·网络安全·系统安全·安全架构·sql注入
LaughingZhu3 分钟前
Product Hunt 每日热榜 | 2026-04-27
人工智能·经验分享·深度学习·产品运营
代码飞天10 分钟前
机器学习算法和函数整理——助力快速查阅
人工智能·算法·机器学习
jinanwuhuaguo26 分钟前
(第三十三篇)五月的文明奠基:OpenClaw 2026.5.2版本的文明级解读
android·java·开发语言·人工智能·github·拓扑学·openclaw
BU摆烂会噶31 分钟前
【LangGraph】持久化实现的三大能力——时间旅行
数据库·人工智能·python·postgresql·langchain
LaughingZhu38 分钟前
Product Hunt 每日热榜 | 2026-04-26
人工智能·经验分享·深度学习·百度·产品运营
绛橘色的日落(。・∀・)ノ1 小时前
机器学习 单变量线性回归模型
人工智能·机器学习
Vane11 小时前
从零开发一个AI插件,经历了什么?
人工智能·后端
70asunflower1 小时前
2026年前沿人工智能语言模型评估:基于任务驱动的最佳模型选择路径
人工智能·语言模型·自然语言处理
geneculture1 小时前
《智能通信速分多次传输技术(VDMT)》专利文件的全文汉英双语对照版本
服务器·网络·人工智能·融智学的重要应用·哲学与科学统一性·融智时代(杂志)·人机间性