聚类--机器学习西瓜书阅读笔记(六)

无监督学习:通过对无标记训练样本的学习,揭示数据内在规律和性质。

聚类试图将数据集中的样本划分 为若干不相交的子集,聚类过程自动形成簇结构,簇对应的语义需要子集命名把握。

聚类过程可以作为单独的过程,寻找数据内在分布结构,也可作为其他任务的前驱过程。

聚类涉及的两个基本问题------------------性能度量和距离计算

性能度量(有效性指标):外部指标、内部指标,明确性能度量可以作为聚类过程的优化目标。

距离度量:常用闵可夫斯基距离。

闵可夫斯基距离可用于有序属性(可以直接在属性值上计算距离);

VDM用于无序属性(不能直接在属性值上计算距离);

闵可夫斯基距离和VDM结合可以处理混合属性

样本空间中,不同属性的重要性不同,可以使用加权距离

一般基于距离定义相似性度量,距离越大,相似性度量越大,用于相似性度量的距离未必一点要满足距离度量所有基本属性 (非负、同一、对称、直递),即非度量距离。现实任务中,有必要基于数据样本确定合适的距离计算。

原型聚类:假设聚类结构能通过一度原型刻画

原型:样本空间中具有代表性的点。

K均值算法(k-means):属于NP问题,采用贪心策略

具体步骤包括:

  1. 初始化:随机选择K个数据点作为初始的簇质心。
  2. 分配:根据每个数据点与各个簇质心的距离,将其分配给最近的簇。
  3. 更新:重新计算每个簇的质心,即取簇内所有数据点的平均值作为新的质心。
  4. 迭代:重复分配和更新步骤,直到满足某种终止条件(如簇质心不再发生显著变化或达到预设的迭代次数)。需要设置最大运行次数和最小调整幅度阈值。

优点

  • 算法简单,易于实现。
  • 计算效率高,适合处理大规模数据集。
  • 可以识别出任意形状的聚类,只要聚类是凸形的。

缺点

  • 初始聚类中心的选择敏感,不同的初始值可能导致不同的聚类结果。
  • 需要预先指定聚类数目K,但K值往往难以确定。
  • 噪声和异常值敏感,可能影响聚类结果。
  • 只适合发现具有相似方差的聚类,且聚类是凸形的

为了改善K-means算法对初始聚类中心选择的敏感性,K-means++算法被提出。K-means++的主要改进在于初始聚类中心的选取方式:

  1. 从数据集中随机选择一个点作为第一个聚类中心。
  2. 对于数据集中的每个点,计算其到已选择的聚类中心的距离。
  3. 选择下一个聚类中心,其被选中的概率与到已选择聚类中心的距离的平方成正比。
  4. 重复步骤2和3,直到选择了K个聚类中心。

K-means算法的变种和改进:

  • K-means||:一种快速的K-means算法,用于大规模数据集。
  • 模糊C均值(FCM):允许数据点属于多个聚类,具有一定程度的隶属度。
  • 基于密度的K-means:结合了密度信息,更适合处理非球形聚类。

学习向量量化(LVQ)

数据带有标签,学习过程利用监督信心辅助聚类。

假设给定样本集,共m个,每个样本是由n个属性描述的特征向量。LVQ的学习目标,学得一组n维原型向量,每个原型向量代表一个聚类簇。形成对样本空间的簇划分,称为Voronoi剖分。

LVQ的工作流程主要包括以下步骤:

  1. 初始化:随机选择若干个初始码本向量,每个向量对应一个类别标签。
  2. 训练 :对于每一个输入样本,算法计算其与所有码本向量之间的距离,并将其归为最近的类别。然后根据LVQ更新规则,调整最近类别对应的码本向量的位置。
  3. 迭代优化:重复上述过程直至达到预设的停止条件,如达到最大迭代次数或误差率低于阈值。

LVQ算法的更新规则

  • 当输入样本与正类别原型的距离小于负类别原型时,正类别原型会向输入样本移动;
  • 反之,则远离输入样本。这一动态更新机制确保了码本向量能够逐步逼近训练集各类别的边界,实现更准确的分类决策边界学习。

优点

  • LVQ具有直观易理解的特点,它的解释性强,能直接生成可视化的分类边界。
  • 算法训练速度快,适用于实时或增量式学习场景。
  • 结构简单,不需要复杂的反向传播过程。

缺点

  • 初始码本向量的选择敏感,不同的初始化可能会导致不同的收敛结果。
  • 当类间边界复杂时,LVQ可能无法很好地捕捉特征空间的拓扑结构,特别是在高维数据集中表现一般。
  • 噪声和异常值较为敏感,可能导致过拟合或欠拟合。

高斯混合聚类:利用概率模型表达原型聚类

是一种基于概率的聚类算法,它假设数据是由多个高斯分布混合 而成的。GMC使用期望最大化(Expectation-Maximization, EM)算法来估计数据的生成模型参数 ,包括各个高斯分布的均值、协方差和混合系数。这种算法特别适用于数据集中存在多个子群体且这些群体具有不同统计特性的情况。

算法原理

GMC的核心思想是将数据集表示为多个高斯分布的混合。每个高斯分布(也称为组件)都有其自己的均值、协方差和混合权重。算法的目标是找到一组参数,使得这些高斯分布的混合能够最好地拟合观测数据。GMC通过迭代的方式进行参数估计:

  1. E步(期望步骤):计算每个数据点属于每个高斯分布的后验概率。
  2. M步(最大化步骤)根据这些后验概率,更新每个高斯分布的参数,以最大化观测数据的似然。

优缺点

优点

  • 能够处理多维数据,并且可以很好地拟合数据的分布。
  • 可以处理混合分布数据,提供灵活的聚类形状。
  • 软聚类特性为数据点提供了属于每个聚类的概率,表达不确定性。

缺点

  • 计算复杂度高,尤其是在大数据集上。
  • 初始化敏感,不同的初始化可能导致不同的聚类结果。
  • 需要预先指定高斯分布的数量,这可能需要领域知识或通过交叉验证等方法确定。
  • 异常值敏感,且可能遇到协方差矩阵奇异的问题。

变体和优化

为了解决GMC的一些局限性,研究者们提出了多种变体和优化方法,例如:

  • 带有协方差约束的GMM:对协方差矩阵施加约束,如球形、对角或带对角线约束,以简化模型或避免过度拟合。
  • 变分贝叶斯GMM :通过引入先验分布和变分推断来自动确定聚类的数量,减少对初始化的依赖。

高斯混合聚类是一种强大的聚类工具,尤其适用于数据中存在多个潜在子群体的情况。通过为每个数据点提供属于每个聚类的概率信息,它提供了对数据的更丰富的解释。

密度聚类

假设聚类的结构能通过样本分布的紧密程度确定,从样本密度的角度 考察样本之间的可连接性,基于可连接样本 不断扩展聚类簇获得结果。是基于数据空间中密度分布的聚类方法,它特别适用于发现任意形状的聚类 ,并且能够处理噪声数据 。密度聚类方法的主要优点 是它们不依赖于距离度量,能够发现任意形状的聚类,并且对噪声数据具有较好的鲁棒性。然而,这些算法通常需要仔细选择参数,以确保聚类结果的有效性。此外,密度聚类算法在处理大规模数据集时可能会遇到性能瓶颈,因此常常需要采用索引结构或基于网格的方法来加速密度估计

DBSCAN是一种著名的密度聚类方法,基于一组邻域参数刻画样本分布近密程度。

  • DBSCAN算法的核心思想是利用密度的概念来识别聚类。它将具有足够密度的区域划分为聚类,并能够在具有噪声的空间数据库中发现任意形状的聚类。
  • 算法通过两个主要参数来工作:Eps(邻域的最大半径)和MinPts(在Eps邻域中的最少点数)。
  • DBSCAN将数据点分为三类:核心点、边界点和噪声点。核心点的邻域内点的数量满足最小密度要求,边界点位于核心点的邻域内但本身不是核心点,而噪声点则是不满足核心点或边界点条件的点。
  • DBSCAN的优点包括能够发现任意形状的聚类、对噪声不敏感,且不需要预先指定聚类数目。缺点是对参数EpsMinPts敏感,且在高维数据中表现可能不佳

OPTICS (Ordering Points To Identify the Clustering Structure)

  • OPTICS算法是DBSCAN的一种扩展,它通过排序点来识别聚类结构,允许发现不同密度的聚类。
  • 该算法引入了核心距离和可达距离的概念,使得聚类过程对输入参数不那么敏感

DENCLUE (Density-based Clustering with Noise and Cluster Estimation)

  • DENCLUE算法基于密度分布函数进行聚类,其主要思想是通过估计数据点的密度分布来识别聚类结构。
  • 该算法通过选择一个合适的密度阈值来确定聚类的核心点,并将其他点根据其与核心点的密度关系归入相应的聚类

层次聚类

试图从不同层次对数据进行划分,形成树形聚类结构,采用策略:自底向上、自顶向下。

自底向上的聚合(Agglomerative Clustering):AGNES算法

  1. 初始化:每个数据点被视为一个单独的聚类。
  2. 合并:在每一步中,算法会找到最近的两个聚类并将它们合并成一个更大的聚类。
  3. 重复:重复合并步骤,直到所有的数据点都合并成一个聚类,或者达到某个停止条件。
  4. 树状图:这个过程可以用树状图(Dendrogram)来表示,树状图展示了聚类合并的顺序和距离。

自顶向下的分裂(Divisive Clustering)

  1. 初始化:所有数据点开始时都在一个聚类中。
  2. 分裂:在每一步中,算法会选择一个聚类并将其分裂成两个或更多的子聚类。
  3. 重复:重复分裂步骤,直到每个聚类只包含一个数据点,或者达到某个停止条件。
  4. 树状图:这个过程同样可以用树状图来表示,但与聚合方法相反,树状图从顶部开始,向下展示分裂的过程。

距离度量

在层次聚类中,选择适当的距离度量非常重要,常用的距离度量包括:

  • 欧氏距离(Euclidean Distance):最常见的距离度量,适用于大多数情况。
  • 曼哈顿距离(Manhattan Distance):在城市街区模型中使用,计算两点在标准坐标系上的绝对轴距总和。
  • 余弦相似度(Cosine Similarity):常用于文本数据,衡量两个向量之间的夹角。

链接方法

在层次聚类中,合并聚类时使用的链接方法也很重要,常见的链接方法包括:

  • 最近邻链接(Single Linkage):基于两个聚类中最近的两个点的距离。
  • 完全链接(Complete Linkage):基于两个聚类中最远的两个点的距离。
  • 平均链接(Average Linkage):基于两个聚类中所有点对的平均距离。
  • Ward方法:最小化聚类内差异的平方和。

层次聚类的结果可以通过剪切树状图来确定聚类的数量,这通常需要一些主观判断。层次聚类是一种非常灵活的聚类方法,适用于各种不同的数据类型和规模。

相关推荐
qq_4305839728 分钟前
QT笔记- QTreeView + QFileSystemModel 当前位置的保存与恢复 #选中 #保存当前索引
开发语言·笔记·qt
山顶夕景34 分钟前
【ML】机器学习中常见的25个数学公式
人工智能·数学·机器学习
Crossoads35 分钟前
【汇编语言】外中断(一)—— 外中断的魔法:PC机键盘如何触发计算机响应
android·开发语言·数据库·深度学习·机器学习·计算机外设·汇编语言
Zik----38 分钟前
Anaconda搭建Python虚拟环境并在Pycharm中配置(小白也能懂)
开发语言·人工智能·python·机器学习·pycharm
小王爱吃月亮糖44 分钟前
QT-QVariant类应用
开发语言·c++·笔记·qt·visual studio
红色的山茶花1 小时前
YOLOv9-0.1部分代码阅读笔记-hubconf.py
笔记·深度学习·yolo
无涯学徒19981 小时前
J9学习打卡笔记
笔记·学习
软茸兔1 小时前
笔记:一次oracle 集群日志维护
数据库·笔记·oracle
IT古董3 小时前
【机器学习】机器学习的基本分类-半监督学习ーSemi-supervised SVM
机器学习·支持向量机·分类
sp_fyf_20244 小时前
【大语言模型】ACL2024论文-36 利用NLI和ChatGPT及编码簿知识进行零样本政治关系分类
深度学习·神经网络·机器学习·语言模型·chatgpt·分类·数据挖掘