机器学习笔记:focal loss

1 介绍

  • Focal Loss 是一种在类别不平衡的情况下改善模型性能的损失函数

  • 最初在 2017 年的论文《Focal Loss for Dense Object Detection》中提出

  • 这种损失函数主要用于解决在有挑战性的对象检测任务中,易分类的负样本占据主导地位的问题,从而导致模型难以学习到难分类样本的特征

  • Focal Loss 修改了标准的交叉熵损失函数,通过减少易分类样本的相对损失来增加对难分类样本的关注

    • 其基本形式为如下FL的部分
  • γ 是调节因子,用于控制易分类样本对损失的贡献减小的速率。
  • 通过引入,Focal Loss 能够降低那些已经被正确分类的样本(pt 较高)的损失贡献,使得模型更加关注那些难以正确分类的样本。
相关推荐
遇到困难睡大觉哈哈1 天前
Harmony os——ArkTS 语言笔记(四):类、对象、接口和抽象类
java·笔记·spring·harmonyos·鸿蒙
程序员东岸1 天前
《数据结构——排序(中)》选择与交换的艺术:从直接选择到堆排序的性能跃迁
数据结构·笔记·算法·leetcode·排序算法
STLearner1 天前
AI论文速读 | U-Cast:学习高维时间序列预测的层次结构
大数据·论文阅读·人工智能·深度学习·学习·机器学习·数据挖掘
Ccjf酷儿1 天前
操作系统 蒋炎岩 4.数学视角的操作系统
笔记
yinchao1631 天前
EMC设计经验-笔记
笔记
黑客思维者1 天前
LLM底层原理学习笔记:Adam优化器为何能征服巨型模型成为深度学习的“速度与稳定之王”
笔记·深度学习·学习·llm·adam优化器
松☆1 天前
Flutter + OpenHarmony 实战:构建离线优先的跨设备笔记应用
笔记·flutter
kk哥88991 天前
Swift底层原理学习笔记
笔记·学习·swift
Keep_Trying_Go1 天前
基于Zero-Shot的目标计数算法详解(Open-world Text-specified Object Counting)
人工智能·pytorch·python·算法·多模态·目标统计