机器学习系列6-逻辑回归

|----------------------------------------------------------|
| 重点: 1.逻辑回归模型会生成概率。 2. 对数损失是逻辑回归的损失函数。 3. 逻辑回归被许多从业者广泛使用。 |

1.逻辑回归:计算概率 **许多问题需要将概率估算值作为输出。逻辑回归是一种非常高的概率计算机制。** 实际上,您可以通过以下两种方式之一使用返回的概率: * 原样 * 已转换为二元类别。 ![在这里插入图片描述](https://img-blog.csdnimg.cn/direct/e62e0256ba5a45a39968900685053fa7.png)

在许多情况下,您需要将逻辑回归输出映射到二元分类问题,其中目标是正确预测两个可能的标签之一(例如,"垃圾邮件"或"不是垃圾邮件")。后续模块会重点介绍这一点。

您可能想知道逻辑回归模型如何确保输出值始终介于 0 和 1 之间。巧合的是,S 型函数会产生如下具有相同特征的输出(定义如下):

S 型函数生成以下图表:


逻辑回归推断计算。

2.逻辑回归:损失和正则化

2.1.逻辑回归的损失函数

线性回归的损失函数是平方损失。逻辑回归的损失函数是对数损失,定义如下:

2.2.逻辑回归中的正则化

正则化在逻辑回归建模中极其重要。 如果不进行正则化,高逻辑维度下的逻辑回归的渐近性会不断促使损失接近 0。因此,大多数逻辑回归模型都使用以下两种策略之一来降低模型复杂性:

  • L2 正则化。
  • 早停法,即限制训练步数或学习速率。

假设您为每个示例分配一个唯一 ID,并将每个 ID 映射到其自己的特征。如果您不指定正则化函数,模型将完全过拟合。这是因为模型会尝试在所有样本上将损失降低为零,并且永远无法实现,从而将每个指示器特征的权重提高至 +无穷大或-无穷大。当有大量罕见的交叉时,仅在一个样本上发生,就会出现包含特征组合的高维度数据。

幸运的是,使用 L2 或早停法可以防止此问题出现。

相关推荐
格砸38 分钟前
从入门到辞职|从ChatGPT到OpenClaw,跟上智能时代的进化
前端·人工智能·后端
可观测性用观测云1 小时前
可观测性 4.0:教系统如何思考
人工智能
sunny8651 小时前
Claude Code 跨会话上下文恢复:从 8 次纠正到 0 次的工程实践
人工智能·开源·github
小笼包包仔1 小时前
OpenClaw 多Agent软件开发最佳实践指南
人工智能
smallyoung1 小时前
AgenticRAG:智能体驱动的检索增强生成
人工智能
_skyming_2 小时前
OpenCode 如何做到结果不做自动质量评估,为什么结果还不错?
人工智能
HXhlx2 小时前
CART决策树基本原理
算法·机器学习
南山安2 小时前
手写 Cursor 核心原理:从 Node.js 进程到智能 Agent
人工智能·agent·设计
掘金安东尼2 小时前
如何为 AI 编码代理配置 Next.js 项目
人工智能
aircrushin3 小时前
轻量化大模型架构演进
人工智能·架构