《机器学习》周志华-CH10(降维与度量学习)

10.1k近邻学习

k k k近邻(k-Nearest Neighbor,简称kNN),监督学习。

工作机制:给定测试样本,基于某种距离度量找出训练集中与其最靠近的 k k k个训练样本,基于这些"邻居"预测。
{ 分类任务:选择"投票法"。 k 个样本中最多的类别为预测结果 回归任务:选择"平均法"。平均值或加权平均值 \begin{cases} 分类任务:选择"投票法"。k个样本中最多的类别为预测结果 & \\ 回归任务: 选择"平均法"。平均值或加权平均值 \\ \end{cases} {分类任务:选择"投票法"。k个样本中最多的类别为预测结果回归任务:选择"平均法"。平均值或加权平均值

KNN是"懒惰学习"代表,没有训练。训练开销为零。待收到测试样本再进行处理。

在训练阶段对样本进行学习的方式,称为"急切学习"

给定测试样本 x x x,若其最紧邻样本为 z z z,则最近邻分类器出错的概率就是 x x x与 z z z类别,标记不同的概率,即

最近邻分类器虽然简单,但它泛化错误率不超过贝叶斯最优分类器错误率的两倍!

10.2低维嵌入

在高维情形下出现的数据样本稀疏、距离计算困难等问题,是所有机器学习方法共同面临的困难,称为"维数灾难"。

缓解维数灾难的一个重要途径是降维,"维数约简"

"多维缩放"(Multiple Dimensional Scaling,简称MDS)


d i s t i j 2 = ∣ ∣ z i ∣ ∣ 2 + ∣ ∣ z j ∣ ∣ 2 − 2 z i T z j = b i i + b j j − 2 b i j \begin{equation} \begin{aligned} dist_{ij}^2&=||z_i||^2+||z_j||^2-2z_i^Tz_j \\ &=b_{ii}+b_{jj}-2b_{ij} \end{aligned} \tag{10.3} \end{equation} distij2=∣∣zi∣∣2+∣∣zj∣∣2−2ziTzj=bii+bjj−2bij(10.3)



基于线性变换进行降维方法称为线性降维,都符合(10.13)

不同之处在于对低维子空间性质有不同的要求,对 W W W施加了不同约束

10.3主成分分析

对正交属性空间中的样本点,如何用一个超平面对所有样本进行表达?

性质

  1. 最近重构性:样本点到这个超平面的距离都足够近
  2. 最大可分性:样本点在这个超平面的投影尽可能分开

从最近重构性推导:

从最大可分性推导:

样本点 x i x_i xi在新空间超平面投影是 W T x i W^Tx_i WTxi

若要使尽可能分开,则使投影后样本点的方差最大化。


10.4核化线性降维

若直接使用线性降维方法对三维空间观察到的样本进行降维,则将丢失原本的低维结构。

"原本采样的"低维空间称为"本真"低维

**非线性降维的一种常见方法是基于核技巧对线性降维方法进行"核化"**以主成分分析KPCA为例:


10.5流形学习

流形学习(manifold learning)是一类借鉴拓补流形概念的降维。"流形"是在局部与欧氏距离空间同胚的空间。局部具有欧氏距离的性质。

10.5.1等度量映射(Isometric Maping,简称Isomap)

低维嵌入流形上的测地线距离不能用高维空间的直线距离计算,但能用近似距离来近似

如何计算测地线距离

利用流形在局部上与欧氏距离同胚这个性质,计算两点之间测地线距离的问题,就转变为计算近邻连接图上两点之间最短路径问题。

在近邻连接图上计算两点之间最短路径,著名的Dijkstra算法或者Floyd算法

I s o m a p Isomap Isomap仅是得到了训练样本在低维空间的坐标,对于新样本,将高维空间坐标作为输入,低维空间坐标作为输出,训练一个回归学习器来对新样本的低维空间坐标进行预测。

近邻图构建的两种方法:

  1. 指定邻点个数,如欧氏距离最近的 k k k个点为近邻点, k k k近邻图。
  2. 指定距离阈值 ξ \xi ξ,距离小于 ξ \xi ξ的店被认为是近邻点, ξ \xi ξ近邻图。
10.5.2局部线性嵌入

局部线性嵌入(Locally Liner Embedding,简称LLE)保持样本之间的线性关系。

假定样本点 x i x_i xi能通过邻域样本 x j x_j xj, x k x_k xk, x l x_l xl的坐标经过线性组会重构:

10.6度量学习


假定希望提高近邻分类器的性能,将 M M M嵌入到评价指标中,优化该性能指标相应求 M M M

近邻分类器判别时通常用多数投票法(领域中1票,领域外0票)

替换为概率投票法,对任意样本 x j x_j xj对 x i x_i xi分类影响的概率为:

相关推荐
黑心萝卜三条杠18 分钟前
Everywhere Attack:通过多目标植入提升对抗样本的目标迁移性
人工智能
有谁看见我的剑了?26 分钟前
stress 服务器压力测试的工具学习
服务器·学习·压力测试
有谁看见我的剑了?26 分钟前
stress-ng 服务器压力测试的工具学习
服务器·学习·压力测试
carpell31 分钟前
【语义分割专栏】3:Segnet原理篇
人工智能·python·深度学习·计算机视觉·语义分割
ahead~1 小时前
【大模型原理与技术-毛玉仁】第五章 模型编辑
人工智能·深度学习·机器学习
迪娜学姐1 小时前
GenSpark vs Manus实测对比:文献综述与学术PPT,哪家强?
论文阅读·人工智能·prompt·powerpoint·论文笔记
TDengine (老段)1 小时前
TDengine 在电力行业如何使用 AI ?
大数据·数据库·人工智能·时序数据库·tdengine·涛思数据
猎板PCB厚铜专家大族1 小时前
高频 PCB 技术发展趋势与应用解析
人工智能·算法·设计规范
牛奶咖啡131 小时前
学习设计模式《十二》——命令模式
学习·设计模式·命令模式·队列请求·宏命令·可撤销恢复操作·参数化配置
l0sgAi1 小时前
SpringBoot整合LangChain4j实现RAG (检索增强生成)
人工智能