Pytorch中的损失函数及其用法

来自 千问

在 PyTorch 中,损失函数(Loss Function)是连接模型预测值与真实标签之间的"尺子",它衡量了模型犯错的程度。模型训练的目标就是通过优化算法(如 SGD、Adam)不断调整参数,使得这个"尺子"量出来的差距(损失值)越来越小。

损失函数主要位于 torch.nn 模块中。根据任务类型的不同(回归或分类),我们选择的损失函数也不同。

以下是 PyTorch 中最常用的几种损失函数及其用法详解:

1. 均方误差损失 (MSELoss)

这是回归任务中最常用的损失函数。

  • 公式:计算预测值与真实值之差的平方的平均值。
  • 特点:对异常值(Outliers)比较敏感,因为误差被平方放大了。
  • 适用场景:预测房价、温度、销量等连续数值。
python 复制代码
import torch
import torch.nn as nn

# 定义损失函数
loss_fn = nn.MSELoss()

# 模拟数据:假设我们预测了3个样本的值
pred = torch.tensor([2.5, 0.8, 1.2])  # 模型预测值
target = torch.tensor([3.0, 1.0, 1.0])  # 真实值

# 计算损失
loss = loss_fn(pred, target)
print(f"MSE Loss: {loss.item()}") 
# 手动计算:((2.5-3)^2 + (0.8-1)^2 + (1.2-1)^2) / 3 = 0.11

2. 交叉熵损失 (CrossEntropyLoss)

这是多分类任务(如图像分类)的首选损失函数。

  • 内部机制 :它结合了 LogSoftmaxNLLLoss(负对数似然损失)。
  • 特点
    • 输入是模型原始输出的 logits(不需要经过 Softmax 激活)。
    • 目标标签是类别索引(整数),而不是 one-hot 编码。
  • 适用场景:手写数字识别、猫狗分类等。
python 复制代码
# 定义损失函数
loss_fn = nn.CrossEntropyLoss()

# 模拟数据:3个样本,4个类别
logits = torch.tensor([
    [2.0, 1.0, 0.1, 0.5],  # 样本1的预测分数
    [0.5, 2.0, 0.3, 0.1],  # 样本2
    [0.1, 0.2, 3.0, 0.4]   # 样本3
])

# 真实标签:样本1是第0类,样本2是第1类,样本3是第2类
labels = torch.tensor([0, 1, 2])

# 计算损失
loss = loss_fn(logits, labels)
print(f"CrossEntropy Loss: {loss.item()}")

3. 二元交叉熵损失 (BCELoss / BCEWithLogitsLoss)

用于二分类多标签分类任务。

  • 区别
    • BCELoss:需要输入经过 Sigmoid 激活后的概率值(0~1之间)。
    • BCEWithLogitsLoss推荐使用。它将 Sigmoid 层内置到了损失函数中,数值计算更稳定。
  • 适用场景:判断图片中是否有猫(是/否),或者一张图片同时有多个标签(如既有"猫"又有"狗")。
python 复制代码
# 推荐使用 BCEWithLogitsLoss
loss_fn = nn.BCEWithLogitsLoss()

# 模拟数据:预测是否包含某个特征
pred = torch.tensor([1.0, -2.0, 0.5])  # 模型输出的 logits
target = torch.tensor([1.0, 0.0, 1.0]) # 真实标签(0或1)

loss = loss_fn(pred, target)
print(f"BCEWithLogits Loss: {loss.item()}")

4. L1 损失 (L1Loss)

也称为平均绝对误差(MAE)。

  • 公式:计算预测值与真实值之差的绝对值的平均。
  • 特点:对异常值比 MSE 更鲁棒(不敏感),因为没有平方操作。
  • 适用场景:数据中存在较多异常值的回归任务。
python 复制代码
loss_fn = nn.L1Loss()
pred = torch.tensor([2.5, 0.8, 1.2])
target = torch.tensor([3.0, 1.0, 1.0])

loss = loss_fn(pred, target)
print(f"L1 Loss: {loss.item()}") 
# 计算:(0.5 + 0.2 + 0.2) / 3 = 0.3

总结与选择建议

损失函数 PyTorch 类名 适用任务 关键特点
均方误差 nn.MSELoss() 回归任务 对大误差惩罚重,对异常值敏感
交叉熵 nn.CrossEntropyLoss() 多分类任务 输入为 logits,标签为整数索引
二元交叉熵 nn.BCEWithLogitsLoss() 二分类/多标签 内置 Sigmoid,数值稳定
L1 损失 nn.L1Loss() 回归任务 对异常值更鲁棒

在实际使用中,你通常会先实例化损失函数,然后在训练循环中计算损失并进行反向传播:

python 复制代码
# 伪代码:训练循环中的典型用法
criterion = nn.CrossEntropyLoss() # 1. 定义
optimizer = torch.optim.Adam(model.parameters())

for data, target in dataloader:
    optimizer.zero_grad()          # 梯度清零
    output = model(data)           # 2. 前向传播
    loss = criterion(output, target) # 3. 计算损失
    loss.backward()                # 4. 反向传播
    optimizer.step()               # 5. 更新参数
相关推荐
AI服务老曹几秒前
架构实战:如何构建支持X86/ARM及异构GPU/NPU的跨平台企业级AI视频管理系统?
arm开发·人工智能·架构
决战灬1 分钟前
openclaw配置本地模型(ollama)
人工智能
大尚来也2 分钟前
企业官网搭建详细步骤,自助建站教程
人工智能
CodePlayer竟然被占用了2 分钟前
小米开源1T参数大模型,还送100T Token,这公司是来搅局的吧?
人工智能
ATMQuant2 分钟前
量化策略开发01:我让AI全权做交易决策 - 从提示词设计到决策执行
python·量化交易·vnpy·ai策略
站大爷IP3 分钟前
如何在 Python 中使用 colorama 库来给输出添加颜色
python
算力百科小星5 分钟前
第三维度的 “链式反应”:2026 年 6 款 3D 漫画
人工智能·aigc
lizz6665 分钟前
Hermes-Agent:钉钉dingtalk增加语音识别
人工智能·钉钉·语音识别
格林威7 分钟前
面阵相机 vs 线阵相机:堡盟与海康相机选型差异全解析 附C++ 实战演示
开发语言·c++·人工智能·数码相机·计算机视觉·视觉检测·工业相机
AI攻城狮8 分钟前
DeepSeek 的 Vision 能力要来了吗?
人工智能·后端·openai