PyTorch中CrossEntropyLoss、BCELoss、BCEWithLogitsLoss的理解

import torch

predict =torch.Tensor([[0.5796,0.4403,0.9087],[-1.5673,-0.3150,1.6660]])

#predict =torch.Tensor([[0.5796,0.4403],[-1.5673,-0.3150]])

print(predict)

target =torch.tensor([0,2])

target_bce =torch.Tensor([[1,0,0],[0,0,1]])

ce_loss=torch.nn.CrossEntropyLoss()

soft_max=torch.nn.Softmax(dim=-1)

sig_max=torch.nn.Sigmoid()

soft_out=soft_max(predict)

sig_out=sig_max(predict)

bce_loss=torch.nn.BCELoss()

bce_loss1=torch.nn.BCEWithLogitsLoss()

print(ce_loss(predict,target))

print(bce_loss(soft_out,target_bce))

print(bce_loss(sig_out,target_bce))

print(bce_loss1(predict,target_bce))

输出:

#predict:

**tensor([[ 0.5796, 0.4403, 0.9087],

-1.5673, -0.3150, 1.6660\]\])** #print(ce_loss(predict,target)): **tensor(0.6725)** #print(bce_loss(soft_out,target_bce)) **tensor(0.3950)** #print(bce_loss(sig_out,target_bce)) **tensor(0.5900)** print(bce_loss1(predict,target_bce)) **tensor(0.5900)** **结论:** **1.sigmoid激活+BCELoss等于BCEWithLogitsLoss** **2.BCEWithLogitsLoss和CrossEntropyLoss不一样,但都可以不加激活** **3.sigmoid激活+BCELoss和softmax激活+BCELoss有很大区别**

相关推荐
枫叶林FYL35 分钟前
第10章 符号推理与神经符号AI
pytorch·python·深度学习
小超同学你好3 小时前
Transformer 22. Gemma 1 架构详解:Decoder-only、GeGLU、RoPE 与每一步计算
人工智能·深度学习·transformer
fof9205 小时前
Base LLM | 从 NLP 到 LLM 的算法全栈教程 第七天
人工智能·深度学习
龙文浩_5 小时前
AI深度学习/PyTorch/反向传播与梯度下降
人工智能·pytorch·深度学习
独隅5 小时前
Keras 全面介绍:从入门到实践
人工智能·深度学习·keras
工业机器视觉设计和实现5 小时前
自己的初心,在bpnet基础上自研cnn
人工智能·神经网络·cnn
cyyt5 小时前
深度学习周报(3.30~4.5)
人工智能·深度学习
qq_571099356 小时前
学习周报三十九
人工智能·深度学习·机器学习
陈天伟教授6 小时前
小白快速进阶- AI辅助编码
人工智能·神经网络·机器学习·量子计算
AI医影跨模态组学7 小时前
Radiology子刊(IF=6.3)复旦大学附属金山医院强金伟教授等团队:基于多参数MRI的深度学习和影像组学评估早期宫颈癌淋巴结转移
人工智能·深度学习·论文·医学·医学影像