Pytorch中的损失函数及其用法

来自 千问

在 PyTorch 中,损失函数(Loss Function)是连接模型预测值与真实标签之间的"尺子",它衡量了模型犯错的程度。模型训练的目标就是通过优化算法(如 SGD、Adam)不断调整参数,使得这个"尺子"量出来的差距(损失值)越来越小。

损失函数主要位于 torch.nn 模块中。根据任务类型的不同(回归或分类),我们选择的损失函数也不同。

以下是 PyTorch 中最常用的几种损失函数及其用法详解:

1. 均方误差损失 (MSELoss)

这是回归任务中最常用的损失函数。

  • 公式:计算预测值与真实值之差的平方的平均值。
  • 特点:对异常值(Outliers)比较敏感,因为误差被平方放大了。
  • 适用场景:预测房价、温度、销量等连续数值。
python 复制代码
import torch
import torch.nn as nn

# 定义损失函数
loss_fn = nn.MSELoss()

# 模拟数据:假设我们预测了3个样本的值
pred = torch.tensor([2.5, 0.8, 1.2])  # 模型预测值
target = torch.tensor([3.0, 1.0, 1.0])  # 真实值

# 计算损失
loss = loss_fn(pred, target)
print(f"MSE Loss: {loss.item()}") 
# 手动计算:((2.5-3)^2 + (0.8-1)^2 + (1.2-1)^2) / 3 = 0.11

2. 交叉熵损失 (CrossEntropyLoss)

这是多分类任务(如图像分类)的首选损失函数。

  • 内部机制 :它结合了 LogSoftmaxNLLLoss(负对数似然损失)。
  • 特点
    • 输入是模型原始输出的 logits(不需要经过 Softmax 激活)。
    • 目标标签是类别索引(整数),而不是 one-hot 编码。
  • 适用场景:手写数字识别、猫狗分类等。
python 复制代码
# 定义损失函数
loss_fn = nn.CrossEntropyLoss()

# 模拟数据:3个样本,4个类别
logits = torch.tensor([
    [2.0, 1.0, 0.1, 0.5],  # 样本1的预测分数
    [0.5, 2.0, 0.3, 0.1],  # 样本2
    [0.1, 0.2, 3.0, 0.4]   # 样本3
])

# 真实标签:样本1是第0类,样本2是第1类,样本3是第2类
labels = torch.tensor([0, 1, 2])

# 计算损失
loss = loss_fn(logits, labels)
print(f"CrossEntropy Loss: {loss.item()}")

3. 二元交叉熵损失 (BCELoss / BCEWithLogitsLoss)

用于二分类多标签分类任务。

  • 区别
    • BCELoss:需要输入经过 Sigmoid 激活后的概率值(0~1之间)。
    • BCEWithLogitsLoss推荐使用。它将 Sigmoid 层内置到了损失函数中,数值计算更稳定。
  • 适用场景:判断图片中是否有猫(是/否),或者一张图片同时有多个标签(如既有"猫"又有"狗")。
python 复制代码
# 推荐使用 BCEWithLogitsLoss
loss_fn = nn.BCEWithLogitsLoss()

# 模拟数据:预测是否包含某个特征
pred = torch.tensor([1.0, -2.0, 0.5])  # 模型输出的 logits
target = torch.tensor([1.0, 0.0, 1.0]) # 真实标签(0或1)

loss = loss_fn(pred, target)
print(f"BCEWithLogits Loss: {loss.item()}")

4. L1 损失 (L1Loss)

也称为平均绝对误差(MAE)。

  • 公式:计算预测值与真实值之差的绝对值的平均。
  • 特点:对异常值比 MSE 更鲁棒(不敏感),因为没有平方操作。
  • 适用场景:数据中存在较多异常值的回归任务。
python 复制代码
loss_fn = nn.L1Loss()
pred = torch.tensor([2.5, 0.8, 1.2])
target = torch.tensor([3.0, 1.0, 1.0])

loss = loss_fn(pred, target)
print(f"L1 Loss: {loss.item()}") 
# 计算:(0.5 + 0.2 + 0.2) / 3 = 0.3

总结与选择建议

损失函数 PyTorch 类名 适用任务 关键特点
均方误差 nn.MSELoss() 回归任务 对大误差惩罚重,对异常值敏感
交叉熵 nn.CrossEntropyLoss() 多分类任务 输入为 logits,标签为整数索引
二元交叉熵 nn.BCEWithLogitsLoss() 二分类/多标签 内置 Sigmoid,数值稳定
L1 损失 nn.L1Loss() 回归任务 对异常值更鲁棒

在实际使用中,你通常会先实例化损失函数,然后在训练循环中计算损失并进行反向传播:

python 复制代码
# 伪代码:训练循环中的典型用法
criterion = nn.CrossEntropyLoss() # 1. 定义
optimizer = torch.optim.Adam(model.parameters())

for data, target in dataloader:
    optimizer.zero_grad()          # 梯度清零
    output = model(data)           # 2. 前向传播
    loss = criterion(output, target) # 3. 计算损失
    loss.backward()                # 4. 反向传播
    optimizer.step()               # 5. 更新参数
相关推荐
Piar1231sdafa4 小时前
蓝莓目标检测——改进YOLO11-C2TSSA-DYT-Mona模型实现
人工智能·目标检测·计算机视觉
愚公搬代码4 小时前
【愚公系列】《AI短视频创作一本通》002-AI引爆短视频创作革命(短视频创作者必备的能力)
人工智能
数据猿视觉4 小时前
新品上市|奢音S5耳夹耳机:3.5g无感佩戴,178.8元全场景适配
人工智能
2301_790300964 小时前
Python单元测试(unittest)实战指南
jvm·数据库·python
蚁巡信息巡查系统5 小时前
网站信息发布再巡查机制怎么建立?
大数据·人工智能·数据挖掘·内容运营
AI浩5 小时前
C-RADIOv4(技术报告)
人工智能·目标检测
Purple Coder5 小时前
AI赋予超导材料预测论文初稿
人工智能
Data_Journal5 小时前
Scrapy vs. Crawlee —— 哪个更好?!
运维·人工智能·爬虫·媒体·社媒营销
云边云科技_云网融合5 小时前
AIoT智能物联网平台:架构解析与边缘应用新图景
大数据·网络·人工智能·安全
VCR__5 小时前
python第三次作业
开发语言·python