《机器学习》周志华-CH10(降维与度量学习)

10.1k近邻学习

k k k近邻(k-Nearest Neighbor,简称kNN),监督学习。

工作机制:给定测试样本,基于某种距离度量找出训练集中与其最靠近的 k k k个训练样本,基于这些"邻居"预测。
{ 分类任务:选择"投票法"。 k 个样本中最多的类别为预测结果 回归任务:选择"平均法"。平均值或加权平均值 \begin{cases} 分类任务:选择"投票法"。k个样本中最多的类别为预测结果 & \\ 回归任务: 选择"平均法"。平均值或加权平均值 \\ \end{cases} {分类任务:选择"投票法"。k个样本中最多的类别为预测结果回归任务:选择"平均法"。平均值或加权平均值

KNN是"懒惰学习"代表,没有训练。训练开销为零。待收到测试样本再进行处理。

在训练阶段对样本进行学习的方式,称为"急切学习"

给定测试样本 x x x,若其最紧邻样本为 z z z,则最近邻分类器出错的概率就是 x x x与 z z z类别,标记不同的概率,即

最近邻分类器虽然简单,但它泛化错误率不超过贝叶斯最优分类器错误率的两倍!

10.2低维嵌入

在高维情形下出现的数据样本稀疏、距离计算困难等问题,是所有机器学习方法共同面临的困难,称为"维数灾难"。

缓解维数灾难的一个重要途径是降维,"维数约简"

"多维缩放"(Multiple Dimensional Scaling,简称MDS)


d i s t i j 2 = ∣ ∣ z i ∣ ∣ 2 + ∣ ∣ z j ∣ ∣ 2 − 2 z i T z j = b i i + b j j − 2 b i j \begin{equation} \begin{aligned} dist_{ij}^2&=||z_i||^2+||z_j||^2-2z_i^Tz_j \\ &=b_{ii}+b_{jj}-2b_{ij} \end{aligned} \tag{10.3} \end{equation} distij2=∣∣zi∣∣2+∣∣zj∣∣2−2ziTzj=bii+bjj−2bij(10.3)



基于线性变换进行降维方法称为线性降维,都符合(10.13)

不同之处在于对低维子空间性质有不同的要求,对 W W W施加了不同约束

10.3主成分分析

对正交属性空间中的样本点,如何用一个超平面对所有样本进行表达?

性质

  1. 最近重构性:样本点到这个超平面的距离都足够近
  2. 最大可分性:样本点在这个超平面的投影尽可能分开

从最近重构性推导:

从最大可分性推导:

样本点 x i x_i xi在新空间超平面投影是 W T x i W^Tx_i WTxi

若要使尽可能分开,则使投影后样本点的方差最大化。


10.4核化线性降维

若直接使用线性降维方法对三维空间观察到的样本进行降维,则将丢失原本的低维结构。

"原本采样的"低维空间称为"本真"低维

**非线性降维的一种常见方法是基于核技巧对线性降维方法进行"核化"**以主成分分析KPCA为例:


10.5流形学习

流形学习(manifold learning)是一类借鉴拓补流形概念的降维。"流形"是在局部与欧氏距离空间同胚的空间。局部具有欧氏距离的性质。

10.5.1等度量映射(Isometric Maping,简称Isomap)

低维嵌入流形上的测地线距离不能用高维空间的直线距离计算,但能用近似距离来近似

如何计算测地线距离

利用流形在局部上与欧氏距离同胚这个性质,计算两点之间测地线距离的问题,就转变为计算近邻连接图上两点之间最短路径问题。

在近邻连接图上计算两点之间最短路径,著名的Dijkstra算法或者Floyd算法

I s o m a p Isomap Isomap仅是得到了训练样本在低维空间的坐标,对于新样本,将高维空间坐标作为输入,低维空间坐标作为输出,训练一个回归学习器来对新样本的低维空间坐标进行预测。

近邻图构建的两种方法:

  1. 指定邻点个数,如欧氏距离最近的 k k k个点为近邻点, k k k近邻图。
  2. 指定距离阈值 ξ \xi ξ,距离小于 ξ \xi ξ的店被认为是近邻点, ξ \xi ξ近邻图。
10.5.2局部线性嵌入

局部线性嵌入(Locally Liner Embedding,简称LLE)保持样本之间的线性关系。

假定样本点 x i x_i xi能通过邻域样本 x j x_j xj, x k x_k xk, x l x_l xl的坐标经过线性组会重构:

10.6度量学习


假定希望提高近邻分类器的性能,将 M M M嵌入到评价指标中,优化该性能指标相应求 M M M

近邻分类器判别时通常用多数投票法(领域中1票,领域外0票)

替换为概率投票法,对任意样本 x j x_j xj对 x i x_i xi分类影响的概率为:

相关推荐
南京峟思工程仪器有限公司2 分钟前
如何通过钢筋计来优化施工安全
人工智能·科技·安全
HZZD_HZZD11 分钟前
什么是物联网nb水表?
大数据·数据库·人工智能·物联网·数据分析·能源
月夕花晨3742 小时前
C++学习笔记(51)
c++·笔记·学习
小羊在奋斗2 小时前
【C++】二叉搜索树+变身 = AVL树
java·开发语言·c++·机器学习
B站计算机毕业设计超人2 小时前
计算机毕业设计Django+Vue.js豆瓣图书推荐系统 图书评论情感分析 豆瓣图书可视化大屏 豆瓣图书爬虫 数据分析 图书大数据 大数据毕业设计 机器学习
大数据·python·深度学习·机器学习·网络爬虫·数据可视化·推荐算法
新手小白勇闯新世界2 小时前
特征描述子 EFPH(扩展点特征直方图)---既包括几何关系又包括空间关系
人工智能·深度学习·机器学习
墨染辉4 小时前
pdf处理1
人工智能
墨@#≯6 小时前
感知机及其实践
算法·机器学习·支持向量机
sp_fyf_20246 小时前
【大语言模型-论文精读】谷歌-BERT:用于语言理解的预训练深度双向Transformers
人工智能·语言模型·bert
茶馆大橘6 小时前
Spring Validation —— 参数校验框架
java·后端·学习·spring