深度学习损失函数

目录

一、交叉熵损失函数

二、多分类FocalLoss


一、交叉熵损失函数

对于单个样本其交叉熵误差表示如下:

其中表示分类数量,表示该样本第个分类的真实值(对于one-hot分类而言仅有一个一个分类为1,其他分类为0),表示对第个分类的预测值。进一步对于批量数据(如个样本的情况),需要取每一个样本的误差均值,如下:

考虑到对于one-hot来说仅有一格分类真实值为1,其余为0,那么上式可以重写为:

其中表示该样本对正确分类的预测概率,

二、多分类FocalLoss

因为样本存在不均衡的问题,交叉熵损失训练得到的模型最终容易出现更偏向于"容易的结果",忽略调那些小样本数据。为了解决改问题,需要对不同类别的样本增加权重。考虑基于交叉熵的基础来增加权重,如下式:

其中是用于降低容易预测的样本的权重(也就是大样本数据),因为容易预测的样本的一般比较高,这样使用就会降低这个样本的权重。是根据样本分布的进一步调控。样本分布可以迭代计算得到,如下式:

其中表示平均值,表示次数,表示第次的数量。

相关推荐
风象南2 小时前
普通人用AI加持赚到的第一个100块
人工智能·后端
牛奶2 小时前
2026年大模型怎么选?前端人实用对比
前端·人工智能·ai编程
牛奶2 小时前
前端人为什么要学AI?
前端·人工智能·ai编程
罗西的思考5 小时前
AI Agent框架探秘:拆解 OpenHands(10)--- Runtime
人工智能·算法·机器学习
冬奇Lab6 小时前
OpenClaw 源码精读(2):Channel & Routing——一条消息如何找到它的 Agent?
人工智能·开源·源码阅读
冬奇Lab6 小时前
一天一个开源项目(第38篇):Claude Code Telegram - 用 Telegram 远程用 Claude Code,随时随地聊项目
人工智能·开源·资讯
格砸7 小时前
从入门到辞职|从ChatGPT到OpenClaw,跟上智能时代的进化
前端·人工智能·后端
可观测性用观测云7 小时前
可观测性 4.0:教系统如何思考
人工智能
sunny8657 小时前
Claude Code 跨会话上下文恢复:从 8 次纠正到 0 次的工程实践
人工智能·开源·github
小笼包包仔8 小时前
OpenClaw 多Agent软件开发最佳实践指南
人工智能