机器学习:逻辑回归

逻辑回归通常用于解决分类问题。

"分类"是应用逻辑回归的目的和结果,但中间过程依旧是"回归"。通过逻辑回归模型得到连续值,加上一个"阈值",就成了分类。

逻辑回归算法的拟合函数,叫做Sigmond函数(即形似S的函数。对率函数是Sigmoid的重要代表函数 ):
y = 1 1 + e − z y = \frac {1} {1 + e^{-z}} y=1+e−z1

多元线性回归方程的一般形式如下:
y = β 0 + β 1 x 1 + . . . + β p x p y = \beta_{0} + \beta_{1}x_1 + ... + \beta_{p}x_p y=β0+β1x1+...+βpxp

其矩阵形式为:
Y ⃗ = X ⃗ β ⃗ \vec{Y} = \vec{X} \vec{\beta} Y =X β

其中:
Y ⃗ = [ y 1 y 2 . . . y n ] , X ⃗ = [ 1 x 11 . . . x 1 p . . . 1 x n 1 . . . x n p ] , β ⃗ = [ β 0 β 1 . . . β p ] \vec{Y} = \begin{bmatrix} y_1 \\ y_2 \\ ... \\ y_n \end{bmatrix}, \vec{X} = \begin{bmatrix} 1 x_{11} ... x_{1p} \\ ... \\ 1 x_{n1} ... x_{np} \end{bmatrix}, \vec{\beta} = \begin{bmatrix} \beta_0 \\ \beta_1 \\ ... \\ \beta_p \end{bmatrix} Y = y1y2...yn ,X = 1x11...x1p...1xn1...xnp ,β = β0β1...βp

使用Sigmoid函数,将 x x x值转换为一个接近0或1的 y y y值:
y = 1 1 + e − ( w T x + b ) y = \frac {1} {1 + e^{-(w^Tx + b)}} y=1+e−(wTx+b)1

可以转为:
l n y 1 − y = w T x + b ln \frac {y} {1 - y} = w^Tx + b ln1−yy=wTx+b

其中, y 1 − y \frac y {1 - y} 1−yy是"几率",反应了 x x x作为正例的相对可能性。

若将 y y y视为类后验概率估计 p ( y = 1 ∣ x ) p(y = 1 | x) p(y=1∣x),则为:
l n p ( y = 1 ∣ x ) p ( y = 0 ∣ x ) = w T x + b ln \frac {p(y = 1 | x)} {p(y = 0 | x)} = w^Tx + b lnp(y=0∣x)p(y=1∣x)=wTx+b

p ( y = 1 ∣ x ) + p ( y = 0 ∣ x ) = 1 p(y = 1 | x) + p(y = 0 | x) = 1 p(y=1∣x)+p(y=0∣x)=1

所以可以得到:
p ( y = 1 ∣ x ) = e w T x + b 1 + e w T x + b p(y = 1| x) = \frac {e^{w^Tx + b}} {1 + e^{w^Tx + b}} p(y=1∣x)=1+ewTx+bewTx+b

p ( y = 0 ∣ x ) = 1 1 + e w T x + b p(y = 0 | x) = \frac {1} {1 + e^{w^Tx + b}} p(y=0∣x)=1+ewTx+b1

因此可以采用"最大似然法"求解 w ⃗ \vec{w} w , b b b。

似然性(Likelihood) 是一个事件实际已经发生,反推在什么参数条件下,这个事件发生的概率最大。

采用"对数似然":
L ( w , b ) = ∑ i = 1 m l n p ( y i ∣ x i ; w , b ) L(w,b) = \sum^{m}_{i=1}lnp(y_i|x_i;w,b) L(w,b)=i=1∑mlnp(yi∣xi;w,b)

采用梯度下降进行求解。

原理:通过计算损失函数关于模型参数的梯度,然后沿着梯度的反方向(即最陡峭的下降方向)更新参数。这样,每次迭代都会使损失函数值减小(至少在局部上是这样的),从而逐渐接近损失函数的最小值。

步骤:

Step 1) 初始化参数:选择一个初始的模型参数向量。

Step 2) 计算损失函数对参数的梯度,表示损失函数在当前参数值处的变化率。

Step 3) 沿着梯度的反方向,以一定的学习率更新参数的值,使得损失函数逐渐减小。

Step 4) 重复步骤2和步骤3,直到满足终止条件。

代码实现

数据集下载:Iris - UCI Machine Learning Repository

Iris数据集是有三个目标特征,在这里仅用逻辑回归进行二分类处理,因此删除了后面50个其他目标特征的,使这个数据集符合二分类。

数据集处理:处理出 X X X, Y Y Y,并将 Y Y Y的目标特征非0/1进行转换,在将 Y Y Y设置为 ( n , 1 ) (n, 1) (n,1)的矩阵形状:

python 复制代码
import numpy as np
import pandas as pd

def data_processing():
    data_csv = pd.read_csv('iris.data')
    data_csv = data_csv.dropna()
    # print(data_csv)
    X = data_csv.iloc[:-1, 0:4].values
    # print(X)
    Y = data_csv.iloc[:-1, 4].map({'Iris-setosa': 0, 'Iris-versicolor': 1}).values
    Y = Y.reshape(-1, 1)
    # print(Y.shape)
    return X, Y
data_processing()

逻辑回归模型训练:

python 复制代码
import numpy as np
import matplotlib.pyplot as plt

def sigmoid(x: np.array):
    return 1 / (1 + np.exp(-x))


def trains(X: np.array, Y: np.array, theta: np.array, learn_rate: float, epochs: int):
    """
    定义trains函数,用于训练逻辑回归模型
    X: np.array,特征矩阵,形状为(m, n),其中m是样本数量,n是特征数量
    Y: np.array,目标变量,形状为(m, 1),表示每个样本的标签(0或1)
    theta: np.array,模型参数,形状为(n, 1),表示每个特征的权重
    learn_rate: float,学习率,控制参数更新的步长
    epochs: int,迭代次数,表示训练模型的轮数
    """
    m = len(Y)
    
    loss_values = np.zeros((epochs, 1))
    # 进行多次迭代训练
    for epoch in range(epochs):
        z = X @ theta
        # 计算预测值h,通过sigmoid函数将z映射到(0, 1)之间
        h = sigmoid(z)
        # 计算损失loss,即预测值h与实际值Y之间的差异
        loss = h - Y
        # 计算梯度gradient,根据损失和特征矩阵计算参数的梯度
        gradient = X.T @ loss / m
        # 更新参数theta,使用梯度下降法,学习率乘以梯度
        theta -= learn_rate * gradient
        loss_values[epoch] = np.sum(loss ** 2) / (2 * m)
    
    plt.plot(loss_values)
    plt.show()
    # 返回训练后的参数theta
    return theta

import data_processing as dp

X, Y = dp.data_processing()
print(trains(X, Y, np.zeros((X.shape[1], 1)), 0.01, 10000))

用人话讲明白逻辑回归Logistic regression - 知乎 (zhihu.com)

Python实现逻辑回归(Logistic Regression)_python 逻辑回归-CSDN博客

相关推荐
ZhengEnCi18 分钟前
05-自注意力机制详解 🧠
人工智能·pytorch·深度学习
前端程序媛-Tian34 分钟前
前端 AI 提效实战:从 0 到 1 打造团队专属 AI 代码评审工具
前端·人工智能·ai
weixin_4171970539 分钟前
DeepSeek V4绑定华为:一场飞行中换引擎的国产算力革命
人工智能·华为
翼龙云_cloud1 小时前
阿里云代理商:阿里云深度适配DeepSeek V4让中小企业 AI零门槛上云
人工智能·阿里云·云计算·ai智能体·deepseek v4
MATLAB代码顾问1 小时前
DeepSeek R1:国产开源推理大模型的崛起与实践
人工智能
__Wedream__1 小时前
ICMR2024 | 当对比学习遇上知识蒸馏:轻量超分模型压缩新框架
人工智能·深度学习·计算机视觉·知识蒸馏·超分辨率重建·对比学习
aneasystone本尊1 小时前
OpenClaw 快速入门:从安装到第一次对话
人工智能
aneasystone本尊1 小时前
OpenClaw 接入第一个通道:Telegram
人工智能
IT_陈寒1 小时前
Redis这个内存杀手,差点让我们运维半夜追杀我
前端·人工智能·后端
私人珍藏库2 小时前
【Android】聆听岛[特殊字符]聚合全网音乐[特殊字符]免费听歌下载神器[特殊字符] 聚合音乐平台|无损母带下载|歌词封面同步|免费无广告听歌工具
android·人工智能·工具·软件·多功能