计算Dice损失的函数

计算Dice损失的函数

python 复制代码
def Dice_loss(inputs, target, beta=1, smooth = 1e-5):
    n,c, h, w = inputs.size()    #
    nt,ht, wt, ct = target.size()  #nt,
    
    if h != ht and w != wt:
        inputs = F.interpolate(inputs, size=(ht, wt), mode="bilinear", align_corners=True)
    temp_inputs = torch.softmax(inputs.transpose(1, 2).transpose(2, 3).contiguous().view(n, -1, c),-1)
    temp_target = target.view(n, -1, ct)

    #--------------------------------------------#
    #   计算dice loss
    #--------------------------------------------#
    tp = torch.sum(temp_target[...,:-1] * temp_inputs, axis=[0,1])
    fp = torch.sum(temp_inputs                       , axis=[0,1]) - tp
    fn = torch.sum(temp_target[...,:-1]              , axis=[0,1]) - tp

    score = ((1 + beta ** 2) * tp + smooth) / ((1 + beta ** 2) * tp + beta ** 2 * fn + fp + smooth)
    dice_loss = 1 - torch.mean(score)
    return dice_loss

这段代码是用于计算二分类问题的混淆矩阵(Confusion Matrix)中的True Positives(TP),False Positives(FP)和False Negatives(FN)。在混淆矩阵中,TP表示模型正确预测为正类的数量,FP表示模型错误地预测为正类的数量,FN表示实际为正类但模型没有预测为正类的数量。

让我们分解这段代码来理解每个部分的作用:

  1. temp_target[..., :-1] * temp_inputs

    • temp_target[..., :-1] 获取 temp_target 张量中除了最后一维之外的所有元素。:-1 是一个切片操作,它表示从开始到倒数第二个元素。
    • temp_inputs 是模型的预测输出。
    • 这两个张量进行元素相乘,只有当 temp_target 的最后一维等于 1 时,才会乘以 temp_inputs 对应的位置的值。这模拟了只有当预测和真实标签都为正类(1)时,才认为是真正的正类检测。
  2. torch.sum(..., axis=[0,1])

    • 这是一个求和操作,计算在指定维度上(这里是第0维和第1维)的总和。
    • axis=[0,1] 表示在第0维和第1维上进行求和。通常,第0维代表批量大小(batch size),第1维代表序列长度(sequence length)。
    • 这样做的效果是将所有正类预测的和(TP)汇总起来,无论它们在批量中的哪个位置或序列中。
  3. tp = torch.sum(temp_target[...,:-1] * temp_inputs, axis=[0,1])

    • 最终,tp 保存了所有正类预测的数量。
  4. fp = torch.sum(temp_inputs, axis=[0,1]) - tp

    • torch.sum(temp_inputs, axis=[0,1]) 计算了所有预测为正类的数量,无论它们是否真的是正类。
    • 然后从中减去 tp,得到假正类的数量(FP),即模型错误地预测为正类的数量。
  5. fn = torch.sum(temp_target[...,:-1], axis=[0,1]) - tp

    • torch.sum(temp_target[...,:-1], axis=[0,1]) 计算了实际为正类的数量,无论模型是否预测它们为正类。
    • 然后从中减去 tp,得到假负类的数量(FN),即实际为正类但模型没有预测为正类的数量。

综上所述,这段代码通过计算TP、FP和FN,来评估模型在二分类任务中的性能。这些值是计算精确度(Precision)、召回率(Recall)和F1得分的关键。

相关推荐
xwill*5 小时前
分词器(Tokenizer)-sentencepiece(把训练语料中的字符自动组合成一个最优的子词(subword)集合。)
开发语言·pytorch·python
学历真的很重要6 小时前
VsCode+Roo Code+Gemini 2.5 Pro+Gemini Balance AI辅助编程环境搭建(理论上通过多个Api Key负载均衡达到无限免费Gemini 2.5 Pro)
前端·人工智能·vscode·后端·语言模型·负载均衡·ai编程
普通网友6 小时前
微服务注册中心与负载均衡实战精要,微软 2025 年 8 月更新:对固态硬盘与电脑功能有哪些潜在的影响。
人工智能·ai智能体·技术问答
苍何6 小时前
一人手搓!AI 漫剧从0到1详细教程
人工智能
苍何6 小时前
Gemini 3 刚刷屏,蚂蚁灵光又整活:一句话生成「闪游戏」
人工智能
咖啡の猫6 小时前
Python列表的查询操作
开发语言·python
Chiandra_Leong6 小时前
Python-Pandas、Numpy
python·pandas
BoBoZz196 小时前
ParametricObjectsDemo多种参数曲面展示及面上部分点法线展示
python·vtk·图形渲染·图形处理
苍何6 小时前
越来越对 AI 做的 PPT 敬佩了!(附7大用法)
人工智能
苍何6 小时前
超全Nano Banana Pro 提示词案例库来啦,小白也能轻松上手
人工智能