逻辑回归通常用于解决分类问题。
"分类"是应用逻辑回归的目的和结果,但中间过程依旧是"回归"。通过逻辑回归模型得到连续值,加上一个"阈值",就成了分类。
逻辑回归算法的拟合函数,叫做Sigmond函数(即形似S的函数。对率函数是Sigmoid的重要代表函数 ):
y = 1 1 + e − z y = \frac {1} {1 + e^{-z}} y=1+e−z1
多元线性回归方程的一般形式如下:
y = β 0 + β 1 x 1 + . . . + β p x p y = \beta_{0} + \beta_{1}x_1 + ... + \beta_{p}x_p y=β0+β1x1+...+βpxp
其矩阵形式为:
Y ⃗ = X ⃗ β ⃗ \vec{Y} = \vec{X} \vec{\beta} Y =X β
其中:
Y ⃗ = [ y 1 y 2 . . . y n ] , X ⃗ = [ 1 x 11 . . . x 1 p . . . 1 x n 1 . . . x n p ] , β ⃗ = [ β 0 β 1 . . . β p ] \vec{Y} = \begin{bmatrix} y_1 \\ y_2 \\ ... \\ y_n \end{bmatrix}, \vec{X} = \begin{bmatrix} 1 x_{11} ... x_{1p} \\ ... \\ 1 x_{n1} ... x_{np} \end{bmatrix}, \vec{\beta} = \begin{bmatrix} \beta_0 \\ \beta_1 \\ ... \\ \beta_p \end{bmatrix} Y = y1y2...yn ,X = 1x11...x1p...1xn1...xnp ,β = β0β1...βp
使用Sigmoid函数,将 x x x值转换为一个接近0或1的 y y y值:
y = 1 1 + e − ( w T x + b ) y = \frac {1} {1 + e^{-(w^Tx + b)}} y=1+e−(wTx+b)1
可以转为:
l n y 1 − y = w T x + b ln \frac {y} {1 - y} = w^Tx + b ln1−yy=wTx+b
其中, y 1 − y \frac y {1 - y} 1−yy是"几率",反应了 x x x作为正例的相对可能性。
若将 y y y视为类后验概率估计 p ( y = 1 ∣ x ) p(y = 1 | x) p(y=1∣x),则为:
l n p ( y = 1 ∣ x ) p ( y = 0 ∣ x ) = w T x + b ln \frac {p(y = 1 | x)} {p(y = 0 | x)} = w^Tx + b lnp(y=0∣x)p(y=1∣x)=wTx+b
p ( y = 1 ∣ x ) + p ( y = 0 ∣ x ) = 1 p(y = 1 | x) + p(y = 0 | x) = 1 p(y=1∣x)+p(y=0∣x)=1
所以可以得到:
p ( y = 1 ∣ x ) = e w T x + b 1 + e w T x + b p(y = 1| x) = \frac {e^{w^Tx + b}} {1 + e^{w^Tx + b}} p(y=1∣x)=1+ewTx+bewTx+b
p ( y = 0 ∣ x ) = 1 1 + e w T x + b p(y = 0 | x) = \frac {1} {1 + e^{w^Tx + b}} p(y=0∣x)=1+ewTx+b1
因此可以采用"最大似然法"求解 w ⃗ \vec{w} w , b b b。
似然性(Likelihood) 是一个事件实际已经发生,反推在什么参数条件下,这个事件发生的概率最大。
采用"对数似然":
L ( w , b ) = ∑ i = 1 m l n p ( y i ∣ x i ; w , b ) L(w,b) = \sum^{m}_{i=1}lnp(y_i|x_i;w,b) L(w,b)=i=1∑mlnp(yi∣xi;w,b)
采用梯度下降进行求解。
原理:通过计算损失函数关于模型参数的梯度,然后沿着梯度的反方向(即最陡峭的下降方向)更新参数。这样,每次迭代都会使损失函数值减小(至少在局部上是这样的),从而逐渐接近损失函数的最小值。
步骤:
Step 1) 初始化参数:选择一个初始的模型参数向量。
Step 2) 计算损失函数对参数的梯度,表示损失函数在当前参数值处的变化率。
Step 3) 沿着梯度的反方向,以一定的学习率更新参数的值,使得损失函数逐渐减小。
Step 4) 重复步骤2和步骤3,直到满足终止条件。
代码实现
数据集下载:Iris - UCI Machine Learning Repository
Iris数据集是有三个目标特征,在这里仅用逻辑回归进行二分类处理,因此删除了后面50个其他目标特征的,使这个数据集符合二分类。
数据集处理:处理出 X X X, Y Y Y,并将 Y Y Y的目标特征非0/1进行转换,在将 Y Y Y设置为 ( n , 1 ) (n, 1) (n,1)的矩阵形状:
python
import numpy as np
import pandas as pd
def data_processing():
data_csv = pd.read_csv('iris.data')
data_csv = data_csv.dropna()
# print(data_csv)
X = data_csv.iloc[:-1, 0:4].values
# print(X)
Y = data_csv.iloc[:-1, 4].map({'Iris-setosa': 0, 'Iris-versicolor': 1}).values
Y = Y.reshape(-1, 1)
# print(Y.shape)
return X, Y
data_processing()
逻辑回归模型训练:
python
import numpy as np
import matplotlib.pyplot as plt
def sigmoid(x: np.array):
return 1 / (1 + np.exp(-x))
def trains(X: np.array, Y: np.array, theta: np.array, learn_rate: float, epochs: int):
"""
定义trains函数,用于训练逻辑回归模型
X: np.array,特征矩阵,形状为(m, n),其中m是样本数量,n是特征数量
Y: np.array,目标变量,形状为(m, 1),表示每个样本的标签(0或1)
theta: np.array,模型参数,形状为(n, 1),表示每个特征的权重
learn_rate: float,学习率,控制参数更新的步长
epochs: int,迭代次数,表示训练模型的轮数
"""
m = len(Y)
loss_values = np.zeros((epochs, 1))
# 进行多次迭代训练
for epoch in range(epochs):
z = X @ theta
# 计算预测值h,通过sigmoid函数将z映射到(0, 1)之间
h = sigmoid(z)
# 计算损失loss,即预测值h与实际值Y之间的差异
loss = h - Y
# 计算梯度gradient,根据损失和特征矩阵计算参数的梯度
gradient = X.T @ loss / m
# 更新参数theta,使用梯度下降法,学习率乘以梯度
theta -= learn_rate * gradient
loss_values[epoch] = np.sum(loss ** 2) / (2 * m)
plt.plot(loss_values)
plt.show()
# 返回训练后的参数theta
return theta
import data_processing as dp
X, Y = dp.data_processing()
print(trains(X, Y, np.zeros((X.shape[1], 1)), 0.01, 10000))
