机器学习系列6-逻辑回归

|----------------------------------------------------------|
| 重点: 1.逻辑回归模型会生成概率。 2. 对数损失是逻辑回归的损失函数。 3. 逻辑回归被许多从业者广泛使用。 |

1.逻辑回归:计算概率 **许多问题需要将概率估算值作为输出。逻辑回归是一种非常高的概率计算机制。** 实际上,您可以通过以下两种方式之一使用返回的概率: * 原样 * 已转换为二元类别。 ![在这里插入图片描述](https://img-blog.csdnimg.cn/direct/e62e0256ba5a45a39968900685053fa7.png)

在许多情况下,您需要将逻辑回归输出映射到二元分类问题,其中目标是正确预测两个可能的标签之一(例如,"垃圾邮件"或"不是垃圾邮件")。后续模块会重点介绍这一点。

您可能想知道逻辑回归模型如何确保输出值始终介于 0 和 1 之间。巧合的是,S 型函数会产生如下具有相同特征的输出(定义如下):

S 型函数生成以下图表:


逻辑回归推断计算。

2.逻辑回归:损失和正则化

2.1.逻辑回归的损失函数

线性回归的损失函数是平方损失。逻辑回归的损失函数是对数损失,定义如下:

2.2.逻辑回归中的正则化

正则化在逻辑回归建模中极其重要。 如果不进行正则化,高逻辑维度下的逻辑回归的渐近性会不断促使损失接近 0。因此,大多数逻辑回归模型都使用以下两种策略之一来降低模型复杂性:

  • L2 正则化。
  • 早停法,即限制训练步数或学习速率。

假设您为每个示例分配一个唯一 ID,并将每个 ID 映射到其自己的特征。如果您不指定正则化函数,模型将完全过拟合。这是因为模型会尝试在所有样本上将损失降低为零,并且永远无法实现,从而将每个指示器特征的权重提高至 +无穷大或-无穷大。当有大量罕见的交叉时,仅在一个样本上发生,就会出现包含特征组合的高维度数据。

幸运的是,使用 L2 或早停法可以防止此问题出现。

相关推荐
嗷嗷哦润橘_3 分钟前
AI Agent学习:MetaGPT项目之RAG
人工智能·python·学习·算法·deepseek
Buxxxxxx6 分钟前
DAY 39 GPU训练及类的call方法
人工智能
我有医保我先冲8 分钟前
企业级会议管理工具选型指南:从需求分析到方案落地
人工智能·经验分享·自然语言处理·需求分析
良策金宝AI14 分钟前
从CAD插件到原生平台:工程AI的演进路径与智能协同新范式
大数据·人工智能
陈天伟教授20 分钟前
人工智能应用-机器视觉:车牌识别(2)
人工智能·神经网络·机器学习
江上鹤.14822 分钟前
Day37 MLP神经网络的训练
人工智能·深度学习·神经网络
min18112345642 分钟前
分公司组织架构图在线设计 总部分支管理模板
大数据·人工智能·信息可视化·架构·流程图
中冕—霍格沃兹软件开发测试1 小时前
边界值分析:功能测试中的精度利器
人工智能·功能测试·科技·测试工具·appium·bug
檐下翻书1731 小时前
量子计算 + AI:蛋白质折叠预测速度提升万倍,开启靶向药新纪元
人工智能
q_30238195561 小时前
香橙派赋能水稻病虫害精准识别:AI+边缘计算守护粮食安全
人工智能·边缘计算