L3 逻辑回归

在周将使用 LogisticRegression 函数对经典的鸢尾花 (Iris) 数据集进行分类。将详细介绍逻辑回归的数学原理。

1. 逻辑回归的数学原理

逻辑回归是一种线性分类算法,常用于二分类问题。它的核心思想是通过将线性回归模型的输出通过一个 Sigmoid 函数映射到一个 0 到 1 之间的概率值,从而进行分类。

1.1 线性模型

逻辑回归的线性模型与线性回归相似,其形式为:

z = β 0 + β 1 x 1 + β 2 x 2 + ⋯ + β n x n z = \beta_0 + \beta_1 x_1 + \beta_2 x_2 + \dots + \beta_n x_n z=β0+β1x1+β2x2+⋯+βnxn

其中:

  • ( z ) 是线性组合的输出,
  • ( x 1 x_1 x1, x 2 x_2 x2, ... \dots ..., x n x_n xn) 是特征变量,
  • ( β 0 \beta_0 β0 ) 是截距(常数项),
  • ( β 1 , ... , β n \beta_1, \dots, \beta_n β1,...,βn ) 是特征变量的系数。
1.2 Sigmoid 函数

线性模型输出 ( z ) 之后,通过 Sigmoid 函数将其转化为概率:

y ^ = σ ( z ) = 1 1 + e − z \hat{y} = \sigma(z) = \frac{1}{1 + e^{-z}} y^=σ(z)=1+e−z1

Sigmoid 函数的输出值是一个概率,范围在 0 到 1 之间。当概率 ( y ^ ≥ 0.5 \hat{y} \geq 0.5 y^≥0.5) 时,我们预测为正类(1),否则预测为负类(0)。

1.3 损失函数(对数损失)

为了找到最优的系数 ( β \beta β ),我们需要最小化损失函数。逻辑回归的损失函数为对数损失函数(log loss):

L ( β ) = − 1 m ∑ i = 1 m [ y ( i ) log ⁡ ( y ^ ( i ) ) + ( 1 − y ( i ) ) log ⁡ ( 1 − y ^ ( i ) ) ] L(\beta) = - \frac{1}{m} \sum_{i=1}^{m} \left[ y^{(i)} \log(\hat{y}^{(i)}) + (1 - y^{(i)}) \log(1 - \hat{y}^{(i)}) \right] L(β)=−m1i=1∑m[y(i)log(y^(i))+(1−y(i))log(1−y^(i))]

其中:

  • ( m ) 是样本数,
  • ( y ( i ) y^{(i)} y(i) ) 是第 ( i i i ) 个样本的真实标签,
  • ( y ^ ( i ) \hat{y}^{(i)} y^(i)) 是第 ( i i i ) 个样本的预测概率。

通过梯度下降法或其他优化算法,逻辑回归模型可以根据最小化该损失函数来找到最优的参数 ( β \beta β )。

2. LogisticRegression 函数介绍

py 复制代码
LogisticRegression(
    penalty='l2',                 # 正则化类型,'l1', 'l2', 'elasticnet', 'none'
    dual=False,                   # 双对偶或原始方法
    tol=0.0001,                   # 优化过程的容差
    C=1.0,                        # 正则化强度的倒数,较小的值表示较强的正则化
    fit_intercept=True,           # 是否拟合截距项
    intercept_scaling=1,          # 拦截(截距)的缩放系数
    class_weight=None,            # 给定类别的权重,'balanced' 或 dict
    random_state=None,            # 随机数种子
    solver='lbfgs',               # 优化算法,{'newton-cg', 'lbfgs', 'liblinear', 'sag', 'saga'}
    max_iter=100,                 # 最大迭代次数
    multi_class='auto',           # 处理多类分类问题的方法,{'auto', 'ovr', 'multinomial'}
    verbose=0,                    # 是否在训练过程中输出日志信息
    warm_start=False,             # 是否使用上次调用的解作为初始解
    n_jobs=None,                  # 并行处理的作业数量
    l1_ratio=None                 # 混合正则化的弹性网络的l1比例
)

3. 鸢尾花数据分类

鸢尾花数据集是一个经典的多分类数据集,包含 150 个样本,分为 3 类(Setosa、Versicolor、Virginica),每类 50 个样本。每个样本有 4 个特征:花萼长度、花萼宽度、花瓣长度、花瓣宽度。

以下是完整的代码实现:

python 复制代码
import numpy as np
import pandas as pd
from sklearn import datasets
from sklearn.model_selection import train_test_split
from sklearn.preprocessing import StandardScaler
from sklearn.metrics import accuracy_score, classification_report, confusion_matrix
from sklearn.linear_model import LogisticRegression

# 1. 加载鸢尾花数据集
iris = datasets.load_iris()
X = iris.data  # 特征矩阵
y = iris.target  # 目标变量

# 2. 特征标准化
scaler = StandardScaler()
X_scaled = scaler.fit_transform(X)

# 3. 划分训练集和测试集(80% 训练集,20% 测试集)
X_train, X_test, y_train, y_test = train_test_split(X_scaled, y, test_size=0.2, random_state=42)

# 4. 逻辑回归模型
model = LogisticRegression(max_iter=200)
model.fit(X_train, y_train)

# 5. 模型预测
y_pred = model.predict(X_test)

# 6. 模型评估
accuracy = accuracy_score(y_test, y_pred)
print(f"模型的准确率: {accuracy:.2f}")

# 打印分类报告
print("分类报告:")
print(classification_report(y_test, y_pred, target_names=iris.target_names))

# 打印混淆矩阵
print("混淆矩阵:")
print(confusion_matrix(y_test, y_pred))

4. 总结

本周学习了逻辑回归的数学原理,并通过鸢尾花数据集展示了如何使用 LogisticRegression 进行多分类任务。为后续学习打下基础。

相关推荐
想拿大厂offer2 分钟前
【算法】2022年第十三届蓝桥杯大赛软件类省赛Java大学C组真题
c语言·c++·算法·蓝桥杯
科研小白_d.s8 分钟前
冒泡排序原理及python代码
数据结构·python·算法
可别是个可爱鬼9 分钟前
代码随想录 -- 回溯 -- 子集
数据结构·算法·leetcode
水木流年追梦1 小时前
【shell脚本5】Shell脚本学习--条件控制
人工智能·python·深度学习·学习·算法·机器学习
且行且知1 小时前
`#include <vector>`
c++·算法
saberyydsicloud2 小时前
C++(9.24)
开发语言·c++·算法
重生之我是数学王子2 小时前
Leetcode 1039. 多边形三角形剖分的最低得分 枚举型区间dp C++实现
c++·算法·leetcode·深度优先·动态规划
Ciderw2 小时前
leetcode155.最小栈,两个栈
数据结构·c++·算法·leetcode·面试·职场和发展
大二转专业2 小时前
408算法题leetcode--第11天
考研·算法·leetcode
Ciderw2 小时前
LeetCode 257. 二叉树的所有路径,dfs
数据结构·c++·算法·leetcode·面试·深度优先