逻辑回归(Logistic Regression)

逻辑回归=线性回归+sigmoid函数

逻辑回归简介

逻辑回归(Logistic Regression)是一种用于解决二分类问题 的统计学习方法,通过将线性回归的输出映射到[0,1]区间,表示概率。尽管名称中包含"回归",但逻辑回归实际用于分类任务

核心公式(Sigmoid函数)

逻辑回归使用Sigmoid函数(或称Logistic函数)将线性组合映射为概率

其中:

  • 为输入特征向量,为权重参数,为偏置项。
  • 为Sigmoid函数,输出范围(0,1)。

极大似然估计

极大似然估计的基本概念

极大似然估计(Maximum Likelihood Estimation, MLE)是一种统计方法,用于从观测数据中估计参数。其核心思想是找到一组参数,使得观测数据在该参数下出现的概率最大

似然函数 是参数的函数,表示在给定观测数据 时参数 的可能性。

MLE 的目标是最大化似然函数:

极大似然估计的步骤

构建似然函数 假设观测数据 独立同分布(i.i.d.),

似然函数为:

其中 是概率密度函数(连续变量)或概率质量函数(离散变量)。

取对数似然函数

由于连乘计算复杂,通常取对数似然函数:

求导并解方程 关于 求导,并令导数为零:(使得原函数取到最值)

解此方程得到


举个例子就是:

假设我有一个硬币,正常来说投到正反的概率相同,假设投出正面的概率是,那么投出反面的概率是,那么我可以很轻松算出投出4个正面和6个反面的概率是

如果投出正面的概率是,那么投出反面的概率也是,投出4个正面和6个反面的概率是

但是现在投出正面的概率不知道,可能也不是0.5,需要我去计算,而我在投出10枚硬币后,发现出现了四次正面和六次反面,其概率是

既然事情已经发生,为了计算概率,当然要使这件事情发生的概率尽可能大,

比如抽奖10抽中了6抽,我不会认为抽中一次的概率是1%,而是认为在60%左右

这里使发生概率尽可能大才会使得结果更准确,

这个函数由两部分组成,当i趋近于1时(i-1)会接近0导致结果变小,

同样当i趋近于0时i会接近0,也导致结果变小,

所以求解办法一般是求导,当导数为0取到极大值


正常来说回归函数是用来算一个估计值,逻辑回归会把这个值限制在0-1之间

这里的转化会造成一部分损失

逻辑回归的损失函数

逻辑回归通常使用对数似然损失函数 (Log-Likelihood Loss),也称为交叉熵损失(Cross-Entropy Loss)。其核心思想是通过最大化似然函数来优化模型参数。

二元逻辑回归的损失函数

对于二元分类问题(标签为0或1),损失函数定义如下:

其中:

  • 是第 个样本的真实标签(0或1)。
  • 是模型预测的概率值(即,其中 是sigmoid函数)。
  • 是样本数量。

损失函数的推导

逻辑回归假设数据服从伯努利分布,通过极大似然估计推导损失函数:

解释:

  • 定义sigmoid函数将线性输出映射到概率:
  • 似然函数为:
  • 取负对数似然(转换为最小化问题):

损失函数的作用

损失函数计算出的结果用于衡量模型预测值与真实值之间的差异。这个差异值在机器学习和深度学习中扮演着关键角色,直接影响模型的训练和优化过程。