机器学习-逻辑回归原理及其公式

逻辑回归(Logistic Regression)是一种广泛应用于分类任务的统计学方法,尤其是在二分类问题中表现尤为突出。尽管它的名字中包含"回归",但实际上逻辑回归是一种分类算法。逻辑回归的目标是预测一个样本属于某一类别的概率,而不是预测一个连续值。

逻辑回归原理

逻辑回归的核心在于使用 Sigmoid 函数(也称为 Logistic 函数)来将线性回归的输出映射到 [0, 1] 之间的概率值。这个函数具有 S 形状,可以将任何实数映射到 [0, 1] 之间,非常适合用来表示概率。

Sigmoid 函数

Sigmoid 函数的数学表达式为:

其中 zz 是输入值,σ(z)σ(z) 是经过 Sigmoid 函数后的输出值。这个函数的特点是随着 zz 的增加,σ(z)σ(z) 逐渐接近 1;随着 zz 的减小,σ(z)σ(z) 逐渐接近 0。

模型表达式

逻辑回归模型的表达式可以表示为:

其中:

  • ww 是权重向量,每个特征对应一个权重;
  • xx 是输入特征向量;
  • bb 是偏置项;
  • P(y=1∣x)P(y=1∣x) 表示给定输入 xx 时,目标变量 yy 为 1 的概率。

损失函数

逻辑回归通常使用交叉熵损失函数(Cross-Entropy Loss)来衡量模型的预测结果与真实标签之间的差距。对于二分类问题,损失函数可以定义为:

其中:

梯度下降法

为了最小化损失函数,逻辑回归通常采用梯度下降法来更新权重向量 𝑤和偏置项 𝑏。梯度下降法的基本步骤如下:

  • 初始化权重向量 𝑤和偏置项 𝑏;
  • 计算损失函数关于 𝑤和 𝑏的梯度;
  • 更新 𝑤和 𝑏:

其中 α 是学习率,决定了每次更新的步长。

示例计算梯度

对于权重向量 𝑤,损失函数的梯度为:

对于偏置项 𝑏,损失函数的梯度为:

通过不断迭代更新 w 和 b,直到损失函数收敛或者达到预定的最大迭代次数。

总结

逻辑回归是一种基于 Sigmoid 函数的概率模型,用于解决分类问题。它通过最小化交叉熵损失函数来学习最优的权重向量和偏置项。通过梯度下降法不断更新模型参数,使得模型能够更好地拟合训练数据,并用于预测新数据的类别。

相关推荐
kronos.荒11 分钟前
搜索二维矩阵中的target——二分查找或者二叉搜索树(python)
python·矩阵·二分查找
源码之家26 分钟前
计算机毕业设计:基于Python的美食推荐分析系统 Django框架 爬虫 协同过滤推荐算法 可视化 推荐系统 数据分析 大数据(建议收藏)✅
爬虫·python·机器学习·django·flask·课程设计·美食
badhope37 分钟前
概率论如何让机器学习不再玄学
人工智能·深度学习·机器学习·数据挖掘·github
2301_8145902540 分钟前
Python深度学习入门:TensorFlow 2.0/Keras实战
jvm·数据库·python
阿钱真强道1 小时前
02 从 MLP 到 LeNet:数据、标签和任务:机器学习到底在解决什么问题?
人工智能·深度学习·机器学习·cnn·分类算法·lenet
sun_tao11 小时前
LlamaIndex + Qwen3.5-4B 关闭 Thinking 模式调试记录
python·llamaindex·qwen3.5-4b·huggingfacellm
阿钱真强道1 小时前
04 从 MLP 到 LeNet:sigmoid 和 softmax 到底在做什么?为什么输出层需要它们?
人工智能·机器学习·softmax·分类模型·sigmoid·深度学习入门
书到用时方恨少!1 小时前
Python os 模块使用指南:系统交互的瑞士军刀
开发语言·python
醉舞经阁半卷书11 小时前
从零到1了解Agent Skills
人工智能·机器学习
AI医影跨模态组学1 小时前
J Immunother Cancer(IF=10.6)中山大学孙逸仙纪念医院陈柏深等团队:动态时间数据预测NSCLC新辅助免疫化疗主要病理反应
人工智能·深度学习·机器学习·医学·医学影像