损失函数

MSE损失函数

KL 散度

KL散度,有时候也叫KL距离,一般被用于计算两个分布之间的不同

交叉熵分类损失函数

本质上是一种对数似然函数,可用于二分类和多分类任务中

二分类问题

python 复制代码
loss = -torch.sum(y * torch.log(probs) + (1 - y) * torch.log(1 - probs)).mean()

多分类问题

python 复制代码
def cross_entropy(x: torch.Tensor, y: torch.Tensor):
    # x: (batch_size, num_classes) 经过softmax得到概率
    # y: (batch_size, num_classes) one-hot形式
    return -torch.sum(y * torch.log(x), dim=1).mean()

if __name__ == "__main__":
    input = torch.randn(4, 3)
    probs = softmax(input)
    labels = torch.tensor([0, 1, 2, 1], dtype=torch.int64)
    targets = F.one_hot(labels, num_classes = 3)
    # 不能将概率作为输入
    loss1 = F.cross_entropy(input, labels)
    # 需要将label转化为one-hot形式
    loss2 = cross_entropy(probs, targets)

focal loss

  • 当正负样本数量及其不平衡时,可以考虑使用FocalLoss调节正负样本的loss权重。
  • 当训练样本的难易程度不平衡时,可以考虑使用FocalLoss调节难易样本的loss权重
  • 预测概率距离真值越远,则样本越难
  • alpha为超参数用于调节正负样本权重,gamma为超参数用于调节难易样本权重

回归损失函数

在目标检测中用于优化边缘框的坐标

l1 loss

l2 loss

smooth l1 loss

存在问题

  • 在计算目标检测的 Bounding Box Loss 时,会独立地分别求出4个点的Loss,然后进行相加得到最终的Bounding Box Loss,这种做法的假设是4个点是相互独立的,实际是有一定相关性的。
  • 实际评价框检测的指标是使用IoU,而IoU和Smooth L1是不等价的,多个检测框可能有相同大小的Smooth L1 Loss,但IoU可能差异很大
相关推荐
说私域1 小时前
基于开源AI大模型、AI智能名片与S2B2C商城小程序的购物中心精准零售数据架构研究
人工智能·小程序·开源
key061 小时前
大模型在网络安全领域的应用与评测
网络·人工智能·web安全
北京耐用通信2 小时前
破解工业通信瓶颈:耐达讯自动化Modbus转Profinet网关连接驱动器的奥秘
人工智能·物联网·网络协议·自动化·信息与通信
应用市场2 小时前
OpenCV进阶:图像变换、增强与特征检测实战
人工智能·opencv·计算机视觉
说私域2 小时前
开源链动2+1模式、AI智能名片与S2B2C商城小程序:社群经济的数字化重构路径
人工智能·小程序·开源
rengang662 小时前
智能化的重构建议:大模型分析代码结构,提出可读性和性能优化建议
人工智能·性能优化·重构·ai编程
灵遁者书籍作品2 小时前
语言的拓扑学约束公理:语言对实在的描述具有拓扑不变量——某些真理必须通过悖论、沉默或隐喻表达
人工智能·计算机视觉
一尘之中2 小时前
觉醒的拓扑学:在量子纠缠与神经幻象中重构现实认知
人工智能·重构
金宗汉2 小时前
《宇宙递归拓扑学:基于自指性与拓扑流形的无限逼近模型》
大数据·人工智能·笔记·算法·观察者模式
Joy T3 小时前
海南蓝碳:生态财富与科技驱动的新未来
大数据·人工智能·红树林·海南省·生态区建设