机器学习(13-1)

主成分分析(PCA)

Principal Component Analysis

主要目标:降维,找到主元(主元就是一组比原始特征更有代表性、信息更集中的新特征)

降维

以二维为例,降维的目的就是找到一条轴,把所有的点投影到这个轴上,使得轴上的点投影后距离最大:

线性代数知识点

|-----------|---------------------------------------------------------------------------------------------------|
| 向量(数据、矩阵) | |
| 内积(乘法、投影) | |
| 均值 | |
| 方差 | |
| 协方差 | |

PCA针对协方差主要目标

对协方差矩阵进行特征值分解,使其在新的坐标系下变成对角矩阵。

零均值化

左图(零均值化前):所有点 整体偏在右上角、数据"中心"不在原点 (0,0)

右图(零均值化后):点云 围绕原点分布、原点 (0,0)成了数据的"中心"

不改变点云的形状,只把整堆点从第一张图的位置,平移到第二张图那样以原点为中心

PCA求解算法

特征值()和特征向量():

步骤:

  1. 原始数据矩阵化后,零均值化
  2. 求协方差矩阵
  3. 求协方差矩阵的特征值和特征向量
  4. 按特征值从大到小取特征向量前k行组成矩阵
  5. 即为降维后的数据

注意事项:

  • 验证集和测试集执行同样的降维
  • 验证集、测试集执行零均值化操作时,均值来自于训练集
  • 保证训练集、测试集独立同分布一致性

主要作用:

  • 有效缓解维度灾难
  • 数据降噪效果好
  • 降维后数据特征独立
  • 无法解决过拟合

PCA实战

PCA的优缺点和适用条件

|---------|----------------------------------------------------------------------------------|------------------------------------------------------------------|----------------------------------------|
| 方法 | 优点 | 缺点 | 适用条件 |
| PCA | 简单容易计算,易于计算机实现 可以有效减少特征选择工作量,降低算法计算开销 不要求数据正态分布,无参数限制,不受样本标签限制 有效去除噪声,使得数据更加容易使用 | 非高斯分布情况下,PCA得到的主元可能非最优 特征值分解的求解方法有一定的局限性 降维后存在信息丢失 主成分解释较原数据比较模糊 | 变量间强相关性 数据压缩、预处理 数据降维、噪声去除 高维数据集探索与可视化 |

相关推荐
墨染天姬2 小时前
【AI】端侧AIBOX可以部署哪些智能体
人工智能
AI成长日志2 小时前
【Agentic RL】1.1 什么是Agentic RL:从传统RL到智能体学习
人工智能·学习·算法
2501_948114242 小时前
2026年大模型API聚合平台技术评测:企业级接入层的治理演进与星链4SAPI架构观察
大数据·人工智能·gpt·架构·claude
小小工匠2 小时前
LLM - awesome-design-md 从 DESIGN.md 到“可对话的设计系统”:用纯文本驱动 AI 生成一致 UI 的新范式
人工智能·ui
黎阳之光3 小时前
黎阳之光:视频孪生领跑者,铸就中国数字科技全球竞争力
大数据·人工智能·算法·安全·数字孪生
小超同学你好3 小时前
面向 LLM 的程序设计 6:Tool Calling 的完整生命周期——从定义、决策、执行到观测回注
人工智能·语言模型
智星云算力3 小时前
本地GPU与租用GPU混合部署:混合算力架构搭建指南
人工智能·架构·gpu算力·智星云·gpu租用
jinanwuhuaguo3 小时前
截止到4月8日,OpenClaw 2026年4月更新深度解读剖析:从“能力回归”到“信任内建”的范式跃迁
android·开发语言·人工智能·深度学习·kotlin
xiaozhazha_3 小时前
效率提升80%:2026年AI CRM与ERP深度集成的架构设计与实现
人工智能
枫叶林FYL3 小时前
【自然语言处理 NLP】7.2.2 安全性评估与Constitutional AI
人工智能·自然语言处理