通过拉普拉斯特征映射降维

拉普拉斯特征映射(Laplacian Eigenmaps),主要包括拉普拉斯特征映射(Laplacian Eigenmaps)使用实例、应用技巧、基本知识点总结和需要注意事项,具有一定的参考价值,需要的朋友可以参考一下。

1 介绍

拉普拉斯特征映射(Laplacian Eigenmaps)是一种不太常见的降维算法,它看问题的角度和常见的降维算法不太相同,是从局部的角度去构建数据之间的关系。也许这样讲有些抽象,具体来讲,拉普拉斯特征映射是一种基于图的降维算法,它希望相互间有关系的点(在图中相连的点)在降维后的空间中尽可能的靠近,从而在降维后仍能保持原有的数据结构。

2 推导

拉普拉斯特征映射通过构建邻接矩阵为 W W W (邻接矩阵定义见这里) 的图来重构数据流形的局部结构特征。其主要思想是,如果两个数据 实例 i i i 和 j j j 很相似,那么 i i i 和 j j j 在 降维后目标子空间中应该尽量接近。设数据实例的数目为 n n n ,目标子空间即最终的降维目标的维度为 m m m 。 定义 n \\times m 大小的矩阵 Y Y Y ,其中每一个行向量 y i T y_{i}^{T} yiT 是数据实例 i i i 在目标 m m m 维子空间中的向量表示(即降维后的数据实例 i i i )。我们的目的是 让相似的数据样例 i i i 和 j j j 在降维后的目标子空间里仍旧尽量接近,故拉普拉斯特征映射优化的目标函数如下:

min ⁡ ∑ i , j ∥ y i − y j ∥ 2 W i j \min \sum\limits {i, j}\left\|y{i}-y_{j}\right\|^{2} W_{i j} mini,j∑∥yi−yj∥2Wij

下面开始推导:

\\begin{array}{l} \\sum\\limits_{i=1}\^{n} \\sum\\limits_{j=1}^{n}\&\\left\|y_{i}-y_{j}\\right\|^{2} W_{i j} \\ \&=\\sum\\limits_{i=1}\^{n} \\sum\\limits_{j=1}^{n}\\left(y_{i}^{T} y_{i}-2 y_{i}\^{T} y_{j}+y_{j}\^{T} y_{j}\\right) W_{i j} \\ \&=\\sum\\limits_{i=1}^{n}\\left(\\sum\\limits_{j=1}^{n} W_{i j}\\right) y_{i}\^{T} y_{i}+\\sum\\limits_{j=1}^{n}\\left(\\sum\\limits_{i=1}^{n} W_{i j}\\right) y_{j}\^{T} y_{j}-2 \\sum\\limits_{i=1}\^{n} \\sum\\limits_{j=1}\^{n} y_{i}\^{T} y_{j} W_{i j} \\ \&=2 \\sum\\limits_{i=1}\^{n} D_{i i} y_{i}\^{T} y_{i}-2 \\sum\\limits_{i=1}\^{n} \\sum\\limits_{j=1}\^{n} y_{i}\^{T} y_{j} W_{i j} \\ \&=2 \\sum\\limits_{i=1}\^{n}\\left(\\sqrt{D_{i i}} y_{i}\\right)\^{T}\\left(\\sqrt{D_{i i}} y_{i}\\right)-2 \\sum\\limits_{i=1}\^{n} y_{i}^{T}\\left(\\sum\\limits_{j=1}^{n} y_{j} W i j\\right) \\ \&=2 \\operatorname{trace}\\left(Y\^{T} D Y\\right)-2 \\sum\\limits_{i=1}\^{n} y_{i}\^{T}(Y W)_{i} \\ \&=2 \\operatorname{trace}\\left(Y\^{T} D Y\\right)-2 \\operatorname{trace}\\left(Y\^{T} W Y\\right) \\ \&=2 \\operatorname{trace}\\left\[Y\^{T}(D-W) Y\\right\] \\ \&=2 \\operatorname{trace}\\left(Y\^{T} L Y\\right) \\end{array}

其中 W 是图的邻接矩阵,对角矩阵 D D D 是图的度矩阵 ( D i i = ∑ j = 1 n W i j ) \left(D_{i i}=\sum\limits_{j=1}^{n} W_{i j}\right) (Dii=j=1∑nWij) , L=D-W 成为图的拉普拉斯矩阵。

变换后的拉普拉斯特征映射优化的目标函数如下:

min ⁡ trace ⁡ ( Y T L Y ) s.t. Y T D Y = I \begin{array}{l}\min \operatorname{trace}\left(Y^{T} L Y\right)\\ \text { s.t. } Y^{T} D Y=I \end{array} mintrace(YTLY) s.t. YTDY=I

其中限制条件 s . t . Y T D Y = I s . t . Y^{T} D Y=I s.t.YTDY=I 保证优化问题有解,下面用拉格朗日乘子法对目标函数求解:

f ( Y ) = tr ⁡ ( Y T L Y ) + tr ⁡ [ Λ ( Y T D Y − I ) ] f(Y)=\operatorname{tr}\left(Y^{T} L Y\right)+\operatorname{tr}\left[\Lambda\left(Y^{T} D Y-I\right)\right] f(Y)=tr(YTLY)+tr[Λ(YTDY−I)]

∂ f ( Y ) ∂ Y = L Y + L T Y + D T Y Λ T + D Y Λ = 2 L Y + 2 D Y Λ = 0 \begin{array}{l} \frac{\partial f(Y)}{\partial Y}&=L Y+L^{T} Y+D^{T} Y \Lambda^{T}+D Y \Lambda \\ &=2 L Y+2 D Y \Lambda=0 \end{array} ∂Y∂f(Y)=LY+LTY+DTYΛT+DYΛ=2LY+2DYΛ=0

∴ L Y = − D Y Λ \therefore L Y=-D Y \Lambda ∴LY=−DYΛ

其中用到了矩阵的迹的求导,具体方法见 迹求导。 Λ \Lambda Λ 为一个对角矩阵,另外 L L L 、 D D D 均为实对称矩阵,其转置与自身相等。对于单独的 y y y 向量,上式可写为: L y = λ D y L y=\lambda D y Ly=λDy,这是一个广义特征值问题。通过求得 m m m 个最小非零特征值所对应的特征向量,即可达到降维的目 的。

关于这里为什么要选择 m m m 个最小非零特征值所对应的特征向量。将 L Y=-D Y \\Lambda 带回到 min ⁡ trace ⁡ ( Y T L Y ) \min \operatorname{trace}\left(Y^{T} L Y\right) mintrace(YTLY) 中,由于有着约束条件 Y T D Y = I Y^{T} D Y=I YTDY=I 的限制,可以得到 \\min \\quad \\operatorname{trace}\\left(Y\^{T} L Y\\right)=\\min \\quad t r a c e(-\\Lambda) 。即为特 征值之和。我们为了目标函数最小化,要选择最小的 m m m 个特征值所对应的特征向量。

3 步骤

使用时算法具体步骤为:

步骤1:构建图

使用某一种方法来将所有的点构建成一个图,例如使用KNN算法,将每个点最近的K个点连上边。K是一个预先设定的值。

步骤2:确定权重

确定点与点之间的权重大小,例如选用热核函数来确定,如果点 i 和点 j 相连,那么它们关系的权重设定为:

W i j = e − ∥ x i − x j ∥ 2 t W_{i j}=e^{-\frac{\left\|x_{i}-x_{j}\right\|^{2}}{t}} Wij=e−t∥xi−xj∥2

另外一种可选的简化设定是 W i j = 1 W_{i j}=1 Wij=1 如果点 i i i , j 相连,否则 W_{i j}=0

步骤3:特征映射

计算拉普拉斯矩阵 L L L 的特征向量与特征值: L y=\\lambda D y

使用最小的 m m m 个非零特征值对应的特征向量作为降维后的结果输出。

相关推荐
AI蜗牛之家1 小时前
Qwen系列之Qwen3解读:最强开源模型的细节拆解
人工智能·python
C++ 老炮儿的技术栈1 小时前
UDP 与 TCP 的区别是什么?
开发语言·c++·windows·算法·visual studio
王上上1 小时前
【论文阅读30】Bi-LSTM(2024)
论文阅读·人工智能·lstm
殇者知忧1 小时前
【论文笔记】若干矿井粉尘检测算法概述
深度学习·神经网络·算法·随机森林·机器学习·支持向量机·计算机视觉
whyeekkk2 小时前
python打卡第48天
开发语言·python
YunTM2 小时前
贝叶斯优化+LSTM+时序预测=Nature子刊!
人工智能·机器学习
mochensage3 小时前
C++信息学竞赛中常用函数的一般用法
java·c++·算法
舒一笑3 小时前
智能体革命:企业如何构建自主决策的AI代理?
人工智能
chengooooooo3 小时前
leetcode Top100 238. 除自身以外数组的乘积|数组系列
算法·leetcode
GUIQU.3 小时前
【每日一题 | 2025年6.2 ~ 6.8】第16届蓝桥杯部分偏简单题
算法·蓝桥杯·每日一题