一文读懂深度学习中的损失函数quantifying loss —— 作用、分类和示例代码

在深度学习中,quantifying loss(量化损失)是指通过数学方法计算模型预测值与真实值之间的差异,以衡量模型的性能。损失函数(Loss Function)是量化损失的核心工具,它定义了模型预测值与真实值之间的误差大小。损失值越小,表示模型的预测越接近真实值。


一、损失函数的作用

  1. 衡量模型性能:损失函数提供了一个具体的数值,用于评估模型在当前参数下的表现。
  2. 指导模型优化:通过最小化损失函数,模型可以逐步调整参数,使预测结果更接近真实值。
  3. 帮助模型收敛:损失函数是优化算法(如梯度下降)的核心,它决定了模型参数更新的方向和幅度。

二、常见的损失函数

根据任务类型(如回归、分类等),常用的损失函数有所不同:

1. 回归任务(Regression)

均方误差(Mean Squared Error, MSE)

计算预测值与真实值之间平方差的平均值。适用于回归问题。
MSE = 1 n ∑ i = 1 n ( y i − y ^ i ) 2 \text{MSE} = \frac{1}{n} \sum_{i=1}^n (y_i - \hat{y}_i)^2 MSE=n1∑i=1n(yi−y^i)2

其中, y i y_i yi 是真实值, y ^ i \hat{y}_i y^i 是预测值, n n n 是样本数量。

平均绝对误差(Mean Absolute Error, MAE)

计算预测值与真实值之间绝对差的平均值。对异常值不敏感。
MAE = 1 n ∑ i = 1 n ∣ y i − y ^ i ∣ \text{MAE} = \frac{1}{n} \sum_{i=1}^n |y_i - \hat{y}_i| MAE=n1∑i=1n∣yi−y^i∣

2. 分类任务(Classification)

交叉熵损失(Cross-Entropy Loss)

衡量预测概率分布与真实概率分布之间的差异。适用于分类问题。

◦ 二分类(Binary Cross-Entropy):
BCE = − 1 n ∑ i = 1 n ( y i log ⁡ ( y ^ i ) + ( 1 − y i ) log ⁡ ( 1 − y ^ i ) ) \text{BCE} = -\frac{1}{n} \sum_{i=1}^n \left( y_i \log(\hat{y}_i) + (1 - y_i) \log(1 - \hat{y}_i) \right) BCE=−n1∑i=1n(yilog(y^i)+(1−yi)log(1−y^i))

◦ 多分类(Categorical Cross-Entropy):
CCE = − 1 n ∑ i = 1 n ∑ j = 1 m y i j log ⁡ ( y ^ i j ) \text{CCE} = -\frac{1}{n} \sum_{i=1}^n \sum_{j=1}^m y_{ij} \log(\hat{y}_{ij}) CCE=−n1∑i=1n∑j=1myijlog(y^ij)

其中, m m m是类别数量, y i j y_{ij} yij 是真实标签(one-hot 编码), y ^ i j \hat{y}_{ij} y^ij 是预测概率。

稀疏分类交叉熵(Sparse Categorical Cross-Entropy)

适用于标签是整数(非 one-hot 编码)的分类任务。
Sparse CCE = − 1 n ∑ i = 1 n log ⁡ ( y ^ i , y i ) \text{Sparse CCE} = -\frac{1}{n} \sum_{i=1}^n \log(\hat{y}_{i, y_i}) Sparse CCE=−n1∑i=1nlog(y^i,yi)

3. 其他任务

Hinge Loss

用于支持向量机(SVM)和二分类问题。
Hinge Loss = max ⁡ ( 0 , 1 − y i ⋅ y ^ i ) \text{Hinge Loss} = \max(0, 1 - y_i \cdot \hat{y}_i) Hinge Loss=max(0,1−yi⋅y^i)

Kullback-Leibler Divergence (KL Divergence)

衡量两个概率分布之间的差异,常用于生成模型(如变分自编码器)。


三、如何量化损失

在训练模型时,损失函数的计算过程如下:

  1. 前向传播:模型根据输入数据计算预测值。
  2. 计算损失:使用损失函数计算预测值与真实值之间的误差。
  3. 反向传播:根据损失值计算梯度,更新模型参数。

在 Keras 中,可以通过 model.compile() 指定损失函数,并通过 model.fit() 训练模型。


四、示例代码

以下是一个使用均方误差(MSE)作为损失函数的回归任务示例:

python 复制代码
import tensorflow as tf
from tensorflow.keras import Sequential
from tensorflow.keras.layers import Dense

# 构建模型
model = Sequential([
    Dense(64, input_shape=(10,), activation='relu'),  # 输入维度为 10
    Dense(32, activation='relu'),
    Dense(1)  # 输出层,用于回归任务
])

# 编译模型,指定损失函数为 MSE
model.compile(optimizer='adam', loss='mean_squared_error')

# 生成随机数据
import numpy as np
x_train = np.random.rand(1000, 10)
y_train = np.random.rand(1000, 1)

# 训练模型
model.fit(x_train, y_train, epochs=10, batch_size=32)

五、总结

Quantifying loss 是通过损失函数计算模型预测值与真实值之间的差异,以衡量模型性能并指导优化。不同的任务需要使用不同的损失函数,例如均方误差(MSE)用于回归任务,交叉熵损失用于分类任务。理解损失函数的作用和选择适当的损失函数是构建高效深度学习模型的关键。

相关推荐
努力还债的学术吗喽几秒前
2021 IEEE【论文精读】用GAN让音频隐写术骗过AI检测器 - 对抗深度学习的音频信息隐藏
人工智能·深度学习·生成对抗网络·密码学·音频·gan·隐写
明道云创始人任向晖3 分钟前
20个进入实用阶段的AI应用场景(零售电商业篇)
人工智能·零售
数据智研16 分钟前
【数据分享】大清河(大庆河)流域上游土地利用
人工智能
聚客AI29 分钟前
🔷告别天价算力!2025性价比最高的LLM私有化训练路径
人工智能·llm·掘金·日新计划
天波信息技术分享39 分钟前
AI 云电竞游戏盒子:从“盒子”到“云-端-芯”一体化竞技平台的架构实践
人工智能·游戏·架构
用户5191495848451 小时前
curl --continue-at 参数异常行为分析:文件覆盖与删除风险
人工智能·aigc
用户84913717547161 小时前
joyagent智能体学习(第1期):项目概览与架构解析
人工智能·llm·agent
是乐谷1 小时前
阿里云杭州 AI 产品法务岗位信息分享(2025 年 8 月)
java·人工智能·阿里云·面试·职场和发展·机器人·云计算
用户5191495848451 小时前
初识ARIA时我希望有人告诉我的事:Web无障碍开发指南
人工智能·aigc
AI知识管理1 小时前
AI知识管理产品落地设计方案
人工智能·产品