《机器学习》周志华-CH10(降维与度量学习)

10.1k近邻学习

k k k近邻(k-Nearest Neighbor,简称kNN),监督学习。

工作机制:给定测试样本,基于某种距离度量找出训练集中与其最靠近的 k k k个训练样本,基于这些"邻居"预测。
{ 分类任务:选择"投票法"。 k 个样本中最多的类别为预测结果 回归任务:选择"平均法"。平均值或加权平均值 \begin{cases} 分类任务:选择"投票法"。k个样本中最多的类别为预测结果 & \\ 回归任务: 选择"平均法"。平均值或加权平均值 \\ \end{cases} {分类任务:选择"投票法"。k个样本中最多的类别为预测结果回归任务:选择"平均法"。平均值或加权平均值

KNN是"懒惰学习"代表,没有训练。训练开销为零。待收到测试样本再进行处理。

在训练阶段对样本进行学习的方式,称为"急切学习"

给定测试样本 x x x,若其最紧邻样本为 z z z,则最近邻分类器出错的概率就是 x x x与 z z z类别,标记不同的概率,即

最近邻分类器虽然简单,但它泛化错误率不超过贝叶斯最优分类器错误率的两倍!

10.2低维嵌入

在高维情形下出现的数据样本稀疏、距离计算困难等问题,是所有机器学习方法共同面临的困难,称为"维数灾难"。

缓解维数灾难的一个重要途径是降维,"维数约简"

"多维缩放"(Multiple Dimensional Scaling,简称MDS)


d i s t i j 2 = ∣ ∣ z i ∣ ∣ 2 + ∣ ∣ z j ∣ ∣ 2 − 2 z i T z j = b i i + b j j − 2 b i j \begin{equation} \begin{aligned} dist_{ij}^2&=||z_i||^2+||z_j||^2-2z_i^Tz_j \\ &=b_{ii}+b_{jj}-2b_{ij} \end{aligned} \tag{10.3} \end{equation} distij2=∣∣zi∣∣2+∣∣zj∣∣2−2ziTzj=bii+bjj−2bij(10.3)



基于线性变换进行降维方法称为线性降维,都符合(10.13)

不同之处在于对低维子空间性质有不同的要求,对 W W W施加了不同约束

10.3主成分分析

对正交属性空间中的样本点,如何用一个超平面对所有样本进行表达?

性质

  1. 最近重构性:样本点到这个超平面的距离都足够近
  2. 最大可分性:样本点在这个超平面的投影尽可能分开

从最近重构性推导:

从最大可分性推导:

样本点 x i x_i xi在新空间超平面投影是 W T x i W^Tx_i WTxi

若要使尽可能分开,则使投影后样本点的方差最大化。


10.4核化线性降维

若直接使用线性降维方法对三维空间观察到的样本进行降维,则将丢失原本的低维结构。

"原本采样的"低维空间称为"本真"低维

**非线性降维的一种常见方法是基于核技巧对线性降维方法进行"核化"**以主成分分析KPCA为例:


10.5流形学习

流形学习(manifold learning)是一类借鉴拓补流形概念的降维。"流形"是在局部与欧氏距离空间同胚的空间。局部具有欧氏距离的性质。

10.5.1等度量映射(Isometric Maping,简称Isomap)

低维嵌入流形上的测地线距离不能用高维空间的直线距离计算,但能用近似距离来近似

如何计算测地线距离

利用流形在局部上与欧氏距离同胚这个性质,计算两点之间测地线距离的问题,就转变为计算近邻连接图上两点之间最短路径问题。

在近邻连接图上计算两点之间最短路径,著名的Dijkstra算法或者Floyd算法

I s o m a p Isomap Isomap仅是得到了训练样本在低维空间的坐标,对于新样本,将高维空间坐标作为输入,低维空间坐标作为输出,训练一个回归学习器来对新样本的低维空间坐标进行预测。

近邻图构建的两种方法:

  1. 指定邻点个数,如欧氏距离最近的 k k k个点为近邻点, k k k近邻图。
  2. 指定距离阈值 ξ \xi ξ,距离小于 ξ \xi ξ的店被认为是近邻点, ξ \xi ξ近邻图。
10.5.2局部线性嵌入

局部线性嵌入(Locally Liner Embedding,简称LLE)保持样本之间的线性关系。

假定样本点 x i x_i xi能通过邻域样本 x j x_j xj, x k x_k xk, x l x_l xl的坐标经过线性组会重构:

10.6度量学习


假定希望提高近邻分类器的性能,将 M M M嵌入到评价指标中,优化该性能指标相应求 M M M

近邻分类器判别时通常用多数投票法(领域中1票,领域外0票)

替换为概率投票法,对任意样本 x j x_j xj对 x i x_i xi分类影响的概率为:

相关推荐
java_heartLake43 分钟前
基于deepseek的AI知识库系统搭建
人工智能·deepseek
阿里云云原生2 小时前
山石网科×阿里云通义灵码,开启研发“AI智造”新时代
网络·人工智能·阿里云·ai程序员·ai程序员体验官
diemeng11193 小时前
AI前端开发技能变革时代:效率与创新的新范式
前端·人工智能
有Li3 小时前
跨中心模型自适应牙齿分割|文献速递-医学影像人工智能进展
人工智能
StickToForever4 小时前
第4章 信息系统架构(五)
经验分享·笔记·学习·职场和发展
万事可爱^6 小时前
HDBSCAN:密度自适应的层次聚类算法解析与实践
算法·机器学习·数据挖掘·聚类·hdbscan
leegong231117 小时前
学习PostgreSQL专家认证
数据库·学习·postgresql
牧歌悠悠7 小时前
【深度学习】Unet的基础介绍
人工智能·深度学习·u-net
坚毅不拔的柠檬柠檬8 小时前
AI革命下的多元生态:DeepSeek、ChatGPT、XAI、文心一言与通义千问的行业渗透与场景重构
人工智能·chatgpt·文心一言
坚毅不拔的柠檬柠檬8 小时前
2025:人工智能重构人类文明的新纪元
人工智能·重构