11.19 机器学习-岭回归+拉索回归+逻辑回归

欠拟合 训练不够

过拟合 训练太够了 噪声也学进去了

一般来说w的值越大 误差越大 w的值小误差小 但也不能太小 不然失去了应用的意义

防止 欠拟合和过拟合的方式 就岭回归和拉索回归 正则化

本质上就是牺牲模型在训练集上的正确率来提高推广、泛化能力,W在数值上越小越好,这样能抵抗数值的扰动。同时为了保证模型的正确率W又不能极小。

**因此将原来的损失函数加上一个惩罚项使得计算出来的模型W相对小一些,就是正则化**。

这里面损失函数就是原来固有的损失函数,比如回归的话通常是MSE,然后在加上一部分惩罚项来使得计算出来的模型W相对小一些来带来泛化能力。

岭回归Ridge

在 原来的均方差函数的基础上加一个 各个W的欧式距离 这样让均方差最小的同时 还要让各个W之间的距离变小也就是 w的值要小 变相实现了减小w的值 但准确率肯定降了

特点:

- 岭回归不会将权重压缩到零,这意味着所有特征都会保留在模型中,但它们的权重会被缩小。

- 适用于特征间存在多重共线性的情况。

- 岭回归产生的模型通常更为平滑,因为它对所有特征都有影响。

拉索回归Lasso

在 原来的均方差函数的基础上加一个 各个W的曼哈顿距离 这样让均方差最小的同时 还要让各个W之间的距离变小也就是 w的值要小 变相实现了减小w的值 但准确率肯定降了

特点:

- 拉索回归可以将一些权重压缩到零,从而实现特征选择。这意味着模型最终可能只包含一部分特征。

- 适用于特征数量远大于样本数量的情况,或者当特征间存在相关性时,可以从中选择最相关的特征。

- 拉索回归产生的模型可能更简单,因为它会去除一些不重要的特征。

API

具有L2正则化的线性回归-岭回归。

sklearn.linear_model.Ridge()

1 参数:

(1)alpha, default=1.0,正则项力度 惩罚力度 各w的距离的值 惩罚力度小准确率高 鲁棒性差

(2)fit_intercept, 是否计算偏置, default=True

(3)solver, {'auto', 'svd', 'cholesky', 'lsqr', 'sparse_cg', 'sag', 'saga', 'lbfgs'}, default='auto'

当值为auto,并且数据量、特征都比较大时,内部会随机梯度下降法。

(4)normalize:,default=True, 数据进行标准化,如果特征工程中已经做过标准化,这里就该设置为False

(5)max_iterint, default=None,梯度解算器的最大迭代次数,默认为15000

2 属性

coef_ 回归后的权重系数

intercept_ 偏置

说明:SGDRegressor也可以做岭回归的事情,比如SGDRegressor(penalty='l2',loss="squared_loss"),但是其中梯度下降法有些不同。所以推荐使用Ridge实现岭回归

from sklearn.linear_model import Ridge,Lasso

from sklearn.datasets import fetch_california_housing

from sklearn.model_selection import train_test_split

from sklearn.preprocessing import StandardScaler

def ridge1():

x,y=fetch_california_housing(data_home="assets/datasets",return_X_y=True)

scaler1=StandardScaler()

model1=Ridge(alpha=1.0,fit_intercept=True,solver="auto",max_iter=1000)

x_train,x_test,y_train,y_test=train_test_split(x,y,random_state=666,train_size=0.7)

x_train_stand=scaler1.fit_transform(x_train)

x_test_stand=scaler1.transform(x_test)

model1.fit(x_train_stand,y_train)

score1=model1.score(x_test_stand,y_test)

print(score1)

pass

"""

sklearn.linear_model.Lasso()

参数:

  1. **alpha (float, default=1.0)**:
  • 控制正则化强度;必须是非负浮点数。较大的 alpha 增加了正则化强度。
  1. **fit_intercept (bool, default=True)**:
  • 是否计算此模型的截距。如果设置为 False,则不会使用截距(即数据应该已经被居中)。
  1. **precompute (bool or array-like, default=False)**:
  • 如果为 True,则使用预计算的 Gram 矩阵来加速计算。如果为数组,则使用提供的 Gram 矩阵。
  1. **copy_X (bool, default=True)**:
  • 如果为 True,则复制数据 X,否则可能对其进行修改。
  1. **max_iter (int, default=1000)**:
  • 最大迭代次数。
  1. **tol (float, default=1e-4)**:
  • 精度阈值。如果更新后的系数向量减去之前的系数向量的无穷范数除以 1 加上更新后的系数向量的无穷范数小于 tol,则认为收敛。
  1. **warm_start (bool, default=False)**:
  • 当设置为 True 时,再次调用 fit 方法会重新使用之前调用 fit 方法的结果作为初始估计值,而不是清零它们。
  1. **positive (bool, default=False)**:
  • 当设置为 True 时,强制系数为非负。
  1. **random_state (int, RandomState instance, default=None)**:
  • 随机数生成器的状态。用于随机初始化坐标下降算法中的随机选择。
  1. **selection ({'cyclic', 'random'}, default='cyclic')**:
  • 如果设置为 'random',则随机选择坐标进行更新。如果设置为 'cyclic',则按照循环顺序选择坐标。

属性:

  1. **coef_**
  • 系数向量或者矩阵,代表了每个特征的权重。
  1. **intercept_ **
  • 截距项(如果 fit_intercept=True)。
  1. **n_iter_ **
  • 实际使用的迭代次数。
  1. **n_features_in_ (int)**:
  • 训练样本中特征的数量。

"""

def lasso1():

x,y=fetch_california_housing(data_home="assets/datasets",return_X_y=True)

scaler1=StandardScaler()

model1=Lasso(alpha=1.0,fit_intercept=True,max_iter=1000,positive=True)

x_train,x_test,y_train,y_test=train_test_split(x,y,random_state=666,train_size=0.7)

x_train_stand=scaler1.fit_transform(x_train)

x_test_stand=scaler1.transform(x_test)

model1.fit(x_train_stand,y_train)

score1=model1.score(x_test_stand,y_test)

print(score1)

pass

if name=="main":

ridge1()

lasso1()

逻辑回归(Logistic Regression)是机器学习中的一种分类模型,**逻辑回归是一种分类算法**,虽然名字中带有回归,但是它与回归之间有一定的联系。由于算法的简单和高效,在实际中应用非常广泛

一般用于二分类问题 只有两个结果的

使用一个sigmoid激活函数 把线性回归的结果传入进去 这个sigmoid激活函数 的值域在[0,1] 以0.5为分界线进行分类

损失函数 变为了复合函数

API

sklearn.linear_model.LogisticRegression()

参数:

fit_intercept bool, default=True 指定是否计算截距

max_iter int, default=100 最大迭代次数。迭代达到此数目后,即使未收敛也会停止。

模型对象:

.coef_ 权重

.intercept_ 偏置

predict()预测分类

predict_proba()预测分类(对应的概率)

score()准确率

from sklearn.datasets import load_iris

from sklearn.linear_model import LogisticRegression

from sklearn.model_selection import train_test_split

def logistic_regression1():

x,y=load_iris(return_X_y=True)

index=y!=2

y=y[index]

x=x[index]

x_train,x_test,y_train,y_test=train_test_split(x,y,random_state=666,train_size=0.7)

model1=LogisticRegression()

model1.fit(x_train,y_train)

score1=model1.score(x_test,y_test)

print(score1)

if name=="main":

logistic_regression1()

相关推荐
封步宇AIGC1 小时前
量化交易系统开发-实时行情自动化交易-4.2.1.简单移动平均线实现
人工智能·python·机器学习·数据挖掘
封步宇AIGC1 小时前
量化交易系统开发-实时行情自动化交易-4.1.4.A股布林带(BOLL)实现
人工智能·python·机器学习·数据挖掘
我感觉。2 小时前
【机器学习chp6】对数几率回归
算法·机器学习·逻辑回归·分类模型·对数几率回归
Chef_Chen3 小时前
从0开始学习机器学习--Day32--推荐系统作业
人工智能·学习·机器学习
薛定谔的猫ovo3 小时前
基函数、核函数与Kernel trick
人工智能·机器学习
蚂蚁没问题s4 小时前
图像处理 - 色彩空间转换
图像处理·人工智能·算法·机器学习·计算机视觉
forestsea4 小时前
Spring Boot 与 Java 决策树:构建智能分类系统
java·人工智能·spring boot·深度学习·决策树·机器学习·数据挖掘
慕卿扬4 小时前
基于python的机器学习(三)—— 关联规则与推荐算法
python·学习·机器学习·推荐算法
HP-Patience4 小时前
【机器学习】- 模型复杂度vs模型误差
python·算法·机器学习
勤劳的进取家4 小时前
卷积运算和卷积定理
python·机器学习