特征 降维

1、概述

用于训练的数据集特征对模型的性能有着极其重要的作用,如果训练数据中包含一些不重要的特征,可能导致模型的泛化性能不佳。

降维--是指在某些限定条件下,降低特征个数。

2、方法

低方差过滤法

  • 如果一个特征的方差很小,说明这个特征包含的信息很少,模型很难通过该特征区分对象

相关系数法

  • 通过计算特征的相关系数,发现具有相关性的特征,根据相关性的强弱,进行特征的选择。
  • 皮尔逊相关系数
  • 斯皮尔曼相关系数

PCA(主成分分析法)降维法

  • 在保留大部分信息的前提下,将数据的维度压缩为低维,在降维过程中能够去除特征之间的相关性

2、低方差过滤法

  • 特征方差大:某个特征很多样本的值都有差别
  • 特征方差小:某个特征大多数样本的值都比较接近

低方差过滤------删除方差低于某些阈值的一些特征

python 复制代码
sklearn.feature_selection.VarianceThreshold(threshold=0.0)
Variance.fit_transform(X)
# X是numpy array 格式的数据【n_samples,n_features)

在数据集中,删除方差低于threshold的特征,默认值是保留所有非零方差特征,即删除所有样本中具有相同值的特征。

3、相关系数法

两两变量之间计算相关性,越接近于1,越相关。

皮尔逊相关系数的计算公式:

  • from scipy.stats import pearsonr

斯皮尔曼相关系数:

  • from scipy.stats import spearmanr

上面公式中,di为样本中不同特征在数据中排序的序号差值(相同时就取排序的均值),计算举例如下所示:

python 复制代码
import pandas as pd
from sklearn.feature_selection import VarianceThreshold
from scipy.stats import pearsonr
from scipy.stats import spearmanr
from sklearn.datasets import load_iris
import pandas as pd

pd.set_option('display.max_columns',None)
pd.set_option('display.max_rows',None)
pd.set_option('display.width',1000)

if __name__=='__main__':
    # 读取数据集
    data = load_iris()
    data = pd.DataFrame(data.data, columns=data.feature_names)
    
    #皮尔逊相关系数
    p_corr = pearsonr(data['sepal length (cm)'],data['sepal width (cm)'])
    print(p_corr,'皮尔逊相关系数:',p_corr[0],'不相关概率:',p_corr[1])

    #斯皮尔曼相关系数
    s_corr = spearmanr(data['sepal length (cm)'],data['sepal width (cm)'])
    print(s_corr,'皮尔逊相关系数:',s_corr[0],'不相关概率:',s_corr[1])

    #使用DataFrame的corr方法计算相关性
    print(data.corr('pearson'))
    print(data.corr('spearman'))

4、主成分分析PCA

通过对数据维数进行压缩,尽可能降低原数据的维数(复杂度),损失少量信息,在此过程中可能会舍弃原有数据、创造新的变量。

python 复制代码
from sklearn.decomposition import PCA
from sklearn.datasets import load_iris

if __name__ == '__main__':
    #加载数据集
    x,y = load_iris(return_X_y=True)
    print(x[:5])

    # 指定保留信息的比例
    transformer = PCA(n_components=0.95)
    x_pca = transformer.fit_transform(x)    
    print(x_pca[:5])

    # 另一种方法,保留指定数量的特征
    transformer = PCA(n_components=3)
    x_pca = transformer.fit_transform(x)
    print(x_pca[:5])
相关推荐
java1234_小锋2 分钟前
Transformer 大语言模型(LLM)基石 - Transformer架构详解 - 残差连接(Residual Connection)详解以及算法实现
深度学习·语言模型·transformer
min1811234568 分钟前
分公司组织架构图在线设计 总部分支管理模板
大数据·人工智能·信息可视化·架构·流程图
中冕—霍格沃兹软件开发测试17 分钟前
边界值分析:功能测试中的精度利器
人工智能·功能测试·科技·测试工具·appium·bug
檐下翻书17319 分钟前
量子计算 + AI:蛋白质折叠预测速度提升万倍,开启靶向药新纪元
人工智能
q_302381955628 分钟前
香橙派赋能水稻病虫害精准识别:AI+边缘计算守护粮食安全
人工智能·边缘计算
古城小栈29 分钟前
K3s + 边缘 AI:轻量级 K8s 在嵌入式设备的部署
人工智能·容器·kubernetes
weixin_4166600731 分钟前
豆包与DeepSeek底层大模型的深度解析:技术架构、设计理念与生态分野
人工智能·ai·架构·deepseek
itwangyang52038 分钟前
AIDD-人工智能药物设计-扩散模型热力学:从 AI 提取物理能量
人工智能
ʜᴇɴʀʏ42 分钟前
论文阅读 SAM 3: Segment Anything with Concepts
论文阅读·人工智能·目标检测·计算机视觉·目标跟踪
周杰伦_Jay1 小时前
【BGE-M3与主流RAG嵌入模型】知识库嵌入模型对比
人工智能·机器学习·eureka·开源·github