Pytorch中的损失函数及其用法

来自 千问

在 PyTorch 中,损失函数(Loss Function)是连接模型预测值与真实标签之间的"尺子",它衡量了模型犯错的程度。模型训练的目标就是通过优化算法(如 SGD、Adam)不断调整参数,使得这个"尺子"量出来的差距(损失值)越来越小。

损失函数主要位于 torch.nn 模块中。根据任务类型的不同(回归或分类),我们选择的损失函数也不同。

以下是 PyTorch 中最常用的几种损失函数及其用法详解:

1. 均方误差损失 (MSELoss)

这是回归任务中最常用的损失函数。

  • 公式:计算预测值与真实值之差的平方的平均值。
  • 特点:对异常值(Outliers)比较敏感,因为误差被平方放大了。
  • 适用场景:预测房价、温度、销量等连续数值。
python 复制代码
import torch
import torch.nn as nn

# 定义损失函数
loss_fn = nn.MSELoss()

# 模拟数据:假设我们预测了3个样本的值
pred = torch.tensor([2.5, 0.8, 1.2])  # 模型预测值
target = torch.tensor([3.0, 1.0, 1.0])  # 真实值

# 计算损失
loss = loss_fn(pred, target)
print(f"MSE Loss: {loss.item()}") 
# 手动计算:((2.5-3)^2 + (0.8-1)^2 + (1.2-1)^2) / 3 = 0.11

2. 交叉熵损失 (CrossEntropyLoss)

这是多分类任务(如图像分类)的首选损失函数。

  • 内部机制 :它结合了 LogSoftmaxNLLLoss(负对数似然损失)。
  • 特点
    • 输入是模型原始输出的 logits(不需要经过 Softmax 激活)。
    • 目标标签是类别索引(整数),而不是 one-hot 编码。
  • 适用场景:手写数字识别、猫狗分类等。
python 复制代码
# 定义损失函数
loss_fn = nn.CrossEntropyLoss()

# 模拟数据:3个样本,4个类别
logits = torch.tensor([
    [2.0, 1.0, 0.1, 0.5],  # 样本1的预测分数
    [0.5, 2.0, 0.3, 0.1],  # 样本2
    [0.1, 0.2, 3.0, 0.4]   # 样本3
])

# 真实标签:样本1是第0类,样本2是第1类,样本3是第2类
labels = torch.tensor([0, 1, 2])

# 计算损失
loss = loss_fn(logits, labels)
print(f"CrossEntropy Loss: {loss.item()}")

3. 二元交叉熵损失 (BCELoss / BCEWithLogitsLoss)

用于二分类多标签分类任务。

  • 区别
    • BCELoss:需要输入经过 Sigmoid 激活后的概率值(0~1之间)。
    • BCEWithLogitsLoss推荐使用。它将 Sigmoid 层内置到了损失函数中,数值计算更稳定。
  • 适用场景:判断图片中是否有猫(是/否),或者一张图片同时有多个标签(如既有"猫"又有"狗")。
python 复制代码
# 推荐使用 BCEWithLogitsLoss
loss_fn = nn.BCEWithLogitsLoss()

# 模拟数据:预测是否包含某个特征
pred = torch.tensor([1.0, -2.0, 0.5])  # 模型输出的 logits
target = torch.tensor([1.0, 0.0, 1.0]) # 真实标签(0或1)

loss = loss_fn(pred, target)
print(f"BCEWithLogits Loss: {loss.item()}")

4. L1 损失 (L1Loss)

也称为平均绝对误差(MAE)。

  • 公式:计算预测值与真实值之差的绝对值的平均。
  • 特点:对异常值比 MSE 更鲁棒(不敏感),因为没有平方操作。
  • 适用场景:数据中存在较多异常值的回归任务。
python 复制代码
loss_fn = nn.L1Loss()
pred = torch.tensor([2.5, 0.8, 1.2])
target = torch.tensor([3.0, 1.0, 1.0])

loss = loss_fn(pred, target)
print(f"L1 Loss: {loss.item()}") 
# 计算:(0.5 + 0.2 + 0.2) / 3 = 0.3

总结与选择建议

损失函数 PyTorch 类名 适用任务 关键特点
均方误差 nn.MSELoss() 回归任务 对大误差惩罚重,对异常值敏感
交叉熵 nn.CrossEntropyLoss() 多分类任务 输入为 logits,标签为整数索引
二元交叉熵 nn.BCEWithLogitsLoss() 二分类/多标签 内置 Sigmoid,数值稳定
L1 损失 nn.L1Loss() 回归任务 对异常值更鲁棒

在实际使用中,你通常会先实例化损失函数,然后在训练循环中计算损失并进行反向传播:

python 复制代码
# 伪代码:训练循环中的典型用法
criterion = nn.CrossEntropyLoss() # 1. 定义
optimizer = torch.optim.Adam(model.parameters())

for data, target in dataloader:
    optimizer.zero_grad()          # 梯度清零
    output = model(data)           # 2. 前向传播
    loss = criterion(output, target) # 3. 计算损失
    loss.backward()                # 4. 反向传播
    optimizer.step()               # 5. 更新参数
相关推荐
Dr.AE几秒前
深小i 产品分析报告
大数据·人工智能·政务
吾在学习路1 分钟前
AoP-SAM: Automation of Prompts for Efficient Segmentation
人工智能·深度学习·算法·计算机视觉
Dontla2 分钟前
Python Streamlit介绍(开源Python Web应用框架,快速将Python脚本转换成交互式Web应用,适合数据科学和机器学习项目快速展示)
前端·python·开源
新缸中之脑8 分钟前
顶级视频生成模型 (2026)
人工智能
技术宅学长12 分钟前
Router门控网络简单介绍
人工智能·深度学习
健康平安的活着14 分钟前
AI之Toolcalling的使用案例(langchain4j+springboot)
人工智能·spring boot·后端
2501_9269783318 分钟前
大模型“脱敏--加密”--“本地轻头尾运算--模型重运算”
人工智能·经验分享·架构
少云清22 分钟前
【UI自动化测试】12_web自动化测试 _验证码处理和cookie
前端·python·web自动化测试
冰西瓜60024 分钟前
深度学习的数学原理(十二)—— CNN的反向传播
人工智能·深度学习·cnn
Ama_tor32 分钟前
Flask |零基础进阶(上)
后端·python·flask