说明:这是一个机器学习实战项目(附带数据+代码+文档+视频讲解 ),如需数据+代码+文档+视频讲解可以直接到文章最后获取。
1 . 项目背景
可以使用Lasso回归进行特征选择,尽管它本质上是一个用于回归问题的技术,但通过一些调整,也可以应用于分类问题,尤其是二分类问题。Lasso(Least Absolute Shrinkage and Selection Operator)通过在损失函数中加入L1正则化项来促使模型的系数稀疏化,从而实现特征选择。对于分类任务,通常会结合逻辑回归(Logistic Regression)的思想,这被称为Lasso Logistic Regression或者Logistic Lasso。
本项目通过逻辑回归的L1正则化(Lasso Logistic Regression)进行分类数据的特征选择。
2 . 数据获取
本次建模数据来源于网络(本项目撰写人整理而成),数据项统计如下:
|------------|--------------|------------|
| 编号 | 变量名称 | 描述 |
| 1 | x1 | |
| 2 | x2 | |
| 3 | x3 | |
| 4 | x4 | |
| 5 | x5 | |
| 6 | x6 | |
| 7 | x7 | |
| 8 | x8 | |
| 9 | x9 | |
| 10 | x10 | |
| 11 | y | 因变量 |
数据详情如下(部分展示):
3. 数据预处理
3.1 用P andas 工具查看数据
使用Pandas工具的head()方法查看前五行数据:
关键代码:
3.2 数据缺失查看
使用Pandas工具的info()方法查看数据信息:
从上图可以看到,总共有11个变量,数据中无缺失值,共2000条数据。
关键代码:
3. 3数据描述性统计
通过Pandas工具的describe()方法来查看数据的平均值、标准差、最小值、分位数、最大值。
关键代码如下:
4. 探索性数据分析
4 . 1 y变量柱状图
用Matplotlib工具的plot()方法绘制柱状图:
4 .2 y=1样本x1变量分布直方图
用Matplotlib工具的hist()方法绘制直方图:
4 .3 相关性分析
从上图中可以看到,数值越大相关性越强,正值是正相关、负值是负相关。
5. 特征工程
5.1 建立特征数据和标签数据
关键代码如下:
5.2 数据集拆分
通过train_test_split()方法按照80%训练集、20%测试集进行划分,关键代码如下:
5. 3 数据 的归一化
关键代码如下:
6. 构建 特征选择 模型
主要使用逻辑回归的L1正则化(Lasso Logistic Regression)进行分类数据的特征选择。
6. 1 构建模型
|------------|--------------|--------------------|
| 编号 | 模型名称 | 参数 |
| 1 | 特征选择模型 | penalty='l1' |
| 2 | 特征选择模型 | solver='liblinear' |
| 3 | 特征选择模型 | C=0.1 |
7 . 特征选择
7 .1 特征系数结果
|-----------------------|-----------------------|----------------------|
| 模型 名称 | 特征 名称 | 系数 值 |
| 特征选择模型 | x1 | 0 |
| 特征选择模型 | x2 | 9.60022787 |
| 特征选择模型 | x3 | -1.005445 |
| 特征选择模型 | x4 | 0 |
| 特征选择模型 | x5 | 0 |
| 特征选择模型 | x6 | 0 |
| 特征选择模型 | x7 | 0 |
| 特征选择模型 | x8 | 0 |
| 特征选择模型 | x9 | 0 |
| 特征选择模型 | x10 | 0 |
7. 2特征选择结果
结果展示如下:
8. 结论与展望
综上所述,本文采用了逻辑回归的L1正则化(Lasso Logistic Regression)进行分类数据的特征选择,最终证明了我们提出的模型效果良好。此模型可用于日常产品的建设。
python
# 本次机器学习项目实战所需的资料,项目资源如下:
# 项目说明:
# 获取方式一:
# 项目实战合集导航:
https://docs.qq.com/sheet/DTVd0Y2NNQUlWcmd6?tab=BB08J2
# 获取方式二:
链接:https://pan.baidu.com/s/1P97Kki89nKLhHqQAucvEnA
提取码:qq3c