主成分分析笔记

主成分分析是指在尽量减少失真的前提下,将高维数据压缩成低微的方式。

减少失真是指最大化压缩后数据的方差。

记 P P P矩阵为 n × m n\times m n×m( n n n行 m m m列)的矩阵,表示一共有 m m m组数据,每组数据有 n n n个维度。

欲将此数据集降为 k k k维,即求 k × m k\times m k×m的矩阵 A A A。

思路是获得一种针对 n n n维的变换方法,将 n n n位列向量转为 k k k位列向量。然后对全部 m m m组数据分别应用此变换,这样就得到答案。

变换方法是使用形如 A = X P A=XP A=XP的算式。问题变为求 k × n k\times n k×n矩阵 X X X。

引入协方差的概念。

协方差 是刻画两个列向量 X = { x 1 , x 2 , ... , x n } T , Y = { y 1 , y 2 , ... , y n } T X=\{x_1,x_2,\dots,x_n\}^\text{T},Y=\{y_1,y_2,\dots,y_n\}^\text{T} X={x1,x2,...,xn}T,Y={y1,y2,...,yn}T的相异程度。对于同一行来说,两个列向量在此行的数值相差越大,就会使协方差越大。
C o v ( X , Y ) = ∑ i = 1 n ( x i − x ^ ) ( y i − y ^ ) Cov(X,Y)=\sum_{i=1}^{n}{(x_i-\hat{x})(y_i-\hat{y})} Cov(X,Y)=i=1∑n(xi−x^)(yi−y^)

接下来的部分需要线性代数理论进行推导,在此只给出结论。

对于数据集的 n n n个维度来说,方差越大,说明数据之间的差异越大,说明越能区分不同数据,说明此维度越重要,越应该被保留。可以用协方差刻画差异。

本例中将关于 n n n维的所有协方差写成一个 n n n阶方阵 Q Q Q,其中 Q i , j Q_{i,j} Qi,j表示 C o v ( P i , P j ) Cov(P_i,P_j) Cov(Pi,Pj), P i P_i Pi表示 P P P的第 i i i行,也就是所有数据的第 i i i个维度。

至此便直接给出计算方法。

  1. 计算 Q Q Q;
  2. 求 Q Q Q的 n n n个特征值及其对应的特征(行)向量,将它们按照特征值从大到小的顺序排列,组成新的方阵 R R R;
  3. 取 R R R的前 k k k行,即 k × n k\times n k×n的矩阵 X X X;
  4. A = X P A=XP A=XP。
相关推荐
中屹指纹浏览器15 分钟前
2026指纹浏览器轻量化架构与资源调度技术:实现千级环境高效稳定运行
经验分享·笔记
咸甜适中26 分钟前
rust语言学习笔记Trait之 From 和 Into (类型转换)
笔记·学习·rust
叶~小兮31 分钟前
K8S优先级、Pod驱逐、HPA扩缩容 学习笔记
笔记·学习·kubernetes
星恒随风33 分钟前
四天学完前端基础三件套(CSS篇)
前端·css·笔记·学习
ZHW_AI课题组41 分钟前
基于ElasticNet网格搜索的汽车燃油效率预测
python·机器学习·回归算法
05候补工程师42 分钟前
【编译原理】语法制导翻译:属性分类、依赖图与求值逻辑全解析
经验分享·笔记·考研·自然语言处理·机器翻译
xiaoyuchidayuma43 分钟前
【无标题】
笔记
Hua-Jay1 小时前
OpenCV联合C++/Qt 学习笔记(二十)----Harri角点检测、Shi-Tomas角点检测及亚像素级别角点位置优化
c++·笔记·qt·opencv·学习·计算机视觉
PNP Robotics1 小时前
【荣誉时刻】PnP机器人荣获「具身智能跨界融合创新奖」,以硬核实力引领产业融合新范式
人工智能·深度学习·机器学习·机器人
许长安1 小时前
rpc和http的区别
经验分享·笔记·网络协议·http·rpc