机器学习(13-1)

主成分分析(PCA)

Principal Component Analysis

主要目标:降维,找到主元(主元就是一组比原始特征更有代表性、信息更集中的新特征)

降维

以二维为例,降维的目的就是找到一条轴,把所有的点投影到这个轴上,使得轴上的点投影后距离最大:

线性代数知识点

|-----------|---------------------------------------------------------------------------------------------------|
| 向量(数据、矩阵) | |
| 内积(乘法、投影) | |
| 均值 | |
| 方差 | |
| 协方差 | |

PCA针对协方差主要目标

对协方差矩阵进行特征值分解,使其在新的坐标系下变成对角矩阵。

零均值化

左图(零均值化前):所有点 整体偏在右上角、数据"中心"不在原点 (0,0)

右图(零均值化后):点云 围绕原点分布、原点 (0,0)成了数据的"中心"

不改变点云的形状,只把整堆点从第一张图的位置,平移到第二张图那样以原点为中心

PCA求解算法

特征值()和特征向量():

步骤:

  1. 原始数据矩阵化后,零均值化
  2. 求协方差矩阵
  3. 求协方差矩阵的特征值和特征向量
  4. 按特征值从大到小取特征向量前k行组成矩阵
  5. 即为降维后的数据

注意事项:

  • 验证集和测试集执行同样的降维
  • 验证集、测试集执行零均值化操作时,均值来自于训练集
  • 保证训练集、测试集独立同分布一致性

主要作用:

  • 有效缓解维度灾难
  • 数据降噪效果好
  • 降维后数据特征独立
  • 无法解决过拟合

PCA实战

PCA的优缺点和适用条件

|---------|----------------------------------------------------------------------------------|------------------------------------------------------------------|----------------------------------------|
| 方法 | 优点 | 缺点 | 适用条件 |
| PCA | 简单容易计算,易于计算机实现 可以有效减少特征选择工作量,降低算法计算开销 不要求数据正态分布,无参数限制,不受样本标签限制 有效去除噪声,使得数据更加容易使用 | 非高斯分布情况下,PCA得到的主元可能非最优 特征值分解的求解方法有一定的局限性 降维后存在信息丢失 主成分解释较原数据比较模糊 | 变量间强相关性 数据压缩、预处理 数据降维、噪声去除 高维数据集探索与可视化 |

相关推荐
skywalk81632 小时前
用opencode为opencode写了一个类似planning-with-files的插件codecraft
人工智能·opencode
信创天地2 小时前
AI + 信创双轮驱动:从自主可控到智能引领,重塑数字经济新范式
运维·人工智能·网络安全·系统架构·系统安全·运维开发
xindoo2 小时前
最近AI领域爆火的 Agent Skills 是什么?
大数据·人工智能
图生生2 小时前
跨境电商图片翻译痛点解决:AI工具实现多语言适配一键生成
人工智能·ai
码农三叔2 小时前
(7-3)自动驾驶中的动态环境路径重规划:实战案例:探险家的行进路线
人工智能·算法·机器学习·机器人·自动驾驶
无代码专家2 小时前
制造业ERP管理系统平台对比与适配选型解决方案
人工智能·低代码
hkNaruto2 小时前
【AI】AI学习笔记:直接使用Python+BM25算法实现RAG的可行性以及实用价值
人工智能·笔记·学习
Niuguangshuo2 小时前
深入浅出解析自然语言处理的核心——分词器
人工智能·自然语言处理
dazzle2 小时前
计算机视觉处理:OpenCV车道线检测实战(二):车道线提取技术详解
人工智能·opencv·计算机视觉