【深度学习每日小知识】Logistic Loss 逻辑回归

逻辑回归的损失函数

线性回归的损失函数是平方损失。逻辑回归的损失函数是对数损失,定义如下:

L o g L o s s = ∑ ( x , y ) ∈ D − y log ⁡ ( y ′ ) − ( 1 − y ) log ⁡ ( 1 − y ′ ) LogLoss=\sum_{(x,y)\in D}-y\log(y')-(1-y)\log(1-y') LogLoss=(x,y)∈D∑−ylog(y′)−(1−y)log(1−y′)

其中:

  • ( x , y ) ∈ D (x,y)\in D (x,y)∈D 是包含许多有标签样本(即成对数据集)的数据集。 ( x , y ) ∈ D (x,y)\in D (x,y)∈D
  • y y y是有标签样本中的标签。由于这是逻辑回归,因此
    的每个 y y y值都必须是 0 或 1。
  • y ′ y' y′是针对 x x x中的一组特征的预测值(介于 0 和 1 之间)。

逻辑回归中的正则化

正则化在逻辑回归建模中极其重要。如果不进行正则化,高逻辑维度下的逻辑回归的渐近性会不断促使损失接近 0。因此,大多数逻辑回归模型都使用以下两种策略之一来降低模型复杂性:

  • L2 正则化。
  • 早停法,即限制训练步数或学习速率。

(我们将在后续中讨论第三个策略,即 L1 正则化。)

假设您为每个示例分配一个唯一 ID,并将每个 ID 映射到其自己的特征。如果您不指定正则化函数,模型将完全过拟合。这是因为模型会尝试在所有样本上将损失降低为零,并且永远无法实现,从而将每个指示器特征的权重提高至 +无穷大或-无穷大。当有大量罕见的交叉时,仅在一个样本上发生,就会出现包含特征组合的高维度数据。

幸运的是,使用 L 2 L_2 L2或早停法可以防止此问题出现。

AI插图

这是对逻辑回归中对数损失函数的可视化。图中展示了两条曲线:一条表示当预测值接近实际值时的损失,另一条表示当预测值远离实际值时的损失。X轴代表预测概率,Y轴代表损失。不同颜色的曲线和图例有助于区分这两种情况。

接下来,我将生成展示正则化效果的图像。

相关推荐
寻丶幽风1 小时前
论文阅读笔记——双流网络
论文阅读·笔记·深度学习·视频理解·双流网络
CM莫问3 小时前
<论文>(微软)避免推荐域外物品:基于LLM的受限生成式推荐
人工智能·算法·大模型·推荐算法·受限生成
康谋自动驾驶4 小时前
康谋分享 | 自动驾驶仿真进入“标准时代”:aiSim全面对接ASAM OpenX
人工智能·科技·算法·机器学习·自动驾驶·汽车
深蓝学院5 小时前
密西根大学新作——LightEMMA:自动驾驶中轻量级端到端多模态模型
人工智能·机器学习·自动驾驶
归去_来兮5 小时前
人工神经网络(ANN)模型
人工智能·机器学习·人工神经网络
2201_754918415 小时前
深入理解卷积神经网络:从基础原理到实战应用
人工智能·神经网络·cnn
强盛小灵通专卖员5 小时前
DL00219-基于深度学习的水稻病害检测系统含源码
人工智能·深度学习·水稻病害
Luke Ewin6 小时前
CentOS7.9部署FunASR实时语音识别接口 | 部署商用级别实时语音识别接口FunASR
人工智能·语音识别·实时语音识别·商用级别实时语音识别
白熊1886 小时前
【计算机视觉】OpenCV实战项目:Face-Mask-Detection 项目深度解析:基于深度学习的口罩检测系统
深度学习·opencv·计算机视觉
Joern-Lee6 小时前
初探机器学习与深度学习
人工智能·深度学习·机器学习