算法笔记:OPTICS 聚类

1 基本介绍

  • OPTICS(Ordering points to identify the clustering structure)是一基于密度的聚类算法
    • OPTICS算法是DBSCAN的改进版本
    • OPTICS算法的提出就是为了帮助DBSCAN算法选择合适的参数,降低输入参数的敏感度
      • OPTICS主要针对输入参数ϵ过敏感做的改进
      • OPTICS和DBSCNA的输入参数一样( ϵ 和 MinPts ),虽然OPTICS算法中也需要两个输入参数,但该算法对 ϵ 输入不敏感(一般将 ϵ 固定为无穷大)【不太清楚为什么不直接不输入ε呢?】
      • 同时该算法中并不显式的生成数据聚类,只是对数据集合中的对象进行排序,得到一个有序的对象列表
        • 通过该有序列表,可以得到一个决策图
        • 通过决策图可以不同 ϵ 参数的数据集中检测簇集,
      • 即:先通过固定的 MinPts 和无穷大的 ϵ 得到有序列表,然后得到决策图,通过决策图可以知道当 ϵ 取特定值时(比如 ϵ=3 )数据的聚类情况。

1.1 和DBSCAN相似的概念

1.2 OPTICS新的定义

1.2.1 核心距离

换句话说,如果x不是核心点,那么cd(x)就没有意义

1.2.2 可达距离

  • 也是,如果x不是核心点,那么rd(y,x)没有意义
  • 如果y在x的ε领域内,那么rd(y,x)=cd(x);如果在x的ε领域外,那么就是d(y,x)

1.3 算法思想

假设数据集为,OPTICS算法的目标是输出一个有序排列,以及每个元素的两个属性值:核心距离,可达距离。

1.3.1 OPTICS算法的数据结构

1.4 算法流程

  • 输入:数据集,领域参数ε(一般等于∞),MinPts
  1. 创建两个队列,有序队列O和结果队列R
    • 有序队列用来存储核心对象及其该核心对象的密度直达对象,并按可达距离升序排列
      • 理解为待处理的数据
    • 结果队列用来存储样本点的输出次序
      • 已经处理完的数据
  2. 如果D中所有点都处理完毕或者不存在核心点,则算法结束。否则:
    1. 选择一个未处理(即不在结果队列R中)且为核心对象的样本点 p
    2. 将 p 放入结果队列R中,并从X中删除 p
    3. 找到 X 中 p 的所有密度直达样本点 x,计算 x 到 p 的可达距离
      1. 如果 x 不在有序队列O 中,则将 x 以及可达距离放入 O 中
      2. 若 x 在O中,则如果 x 新的可达距离更小,则更新 x 的可达距离
    4. 最后对O中数据按可达距离从小到大重新排序。
  3. 如果有序队列O为空,则回到步骤2,否则:
    1. 取出O 中第一个样本点 y(即可达距离最小的样本点),放入 R 中
    2. 从 D 和 O 中删除 y
    3. 如果 y 不是核心对象,则重复步骤 3(即找 O 中剩余数据可达距离最小的样本点)
    4. 如果 y 是核心对象,则
      1. 找到 y 在 D 中的所有密度直达样本点
      2. 计算到 y 的可达距离
      3. 所有 y 的密度直达样本点更新到 O 中
      4. 对O中数据按可达距离从小到大重新排序。
  4. 重复步骤2、3,直到算法结束。
  5. 最终可以得到一个有序的输出结果,以及相应的可达距离。

1.5 举例

样本数据集为:D = {[1, 2], [2, 5], [8, 7], [3, 6], [8, 8], [7, 3], [4,5]}

假设eps = inf,min_samples=2,则数据集D在OPTICS算法上的执行步骤如下:

  • 计算所有的核心对象和核心距离

    • 因为 eps 为无穷大,则显然每个样本点都是核心对象
    • 因为 min_samples=2,则每个核心对象的核心距离就是离自己最近样本点到自己的距离(样本点自身也是邻域元素之一)

    |----------|--------|--------|--------|--------|--------|--------|--------|
    | 索引 | 0 | 1 | 2 | 3 | 4 | 5 | 6 |
    | 元素 | (1, 2) | (2, 5) | (8, 7) | (3, 6) | (8, 8) | (7, 3) | (4, 5) |
    | 核心距离 | 3.16 | 1.41 | 1.0 | 1.41 | 1.0 | 3.61 | 1.41 |

  • 随机在 D 中选择一个核心对象

    • 假设选择 0 号元素,将 0 号元素放入 R 中,并从 D 中删除
    • 因为 eps = inf,则其他所有样本点都是 0 号元素的密度直达对象
    • 计算其他所有元素到 0 号元素的可达距离(计算所有元素到 0 号元素的欧氏距离)
    • 按可达距离排序,添加到序列 O 中
    • 此时D{1,2,3,4,5,6},R{0},O{1,6,3,5,2,4}

    |-------------|--------|--------|--------|--------|--------|--------|--------|----------|
    | 索引 | 0 | 1 | 2 | 3 | 4 | 5 | 6 | 核心对象 |
    | 元素 | (1, 2) | (2, 5) | (8, 7) | (3, 6) | (8, 8) | (7, 3) | (4, 5) | |
    | 核心距离 | 3.16 | 1.41 | 1.0 | 1.41 | 1.0 | 3.61 | 1.41 | |
    | 第一次可达距离 | -- | 3.16 | 8.60 | 4.47 | 9.21 | 6.08 | 4.24 | 0 |

  • 此时 O 中可达距离最小的元素是 1 号元素

    • 取出 1 号元素放入 R ,并从 D 和 O 中删除
    • 因为 1 号元素是核心对象,找到 1 号元素在 D 中的所有密度直达对象(剩余的所有样本点),并计算可达距离
    • 同时更新 O
    • 此时 D{2,3,4,5,6} R{0,1} O{3,6,5,2,4}

    |-------------|--------|--------|--------|--------|--------|--------|--------|----------|
    | 索引 | 0 | 1 | 2 | 3 | 4 | 5 | 6 | 核心对象 |
    | 元素 | (1, 2) | (2, 5) | (8, 7) | (3, 6) | (8, 8) | (7, 3) | (4, 5) | |
    | 核心距离 | 3.16 | 1.41 | 1.0 | 1.41 | 1.0 | 3.61 | 1.41 | |
    | 第二次可达距离 | -- | -- | 6.32 | 1.41 | 6.70 | 5.38 | 2.0 | 1 |

  • 此时 O 中可达距离最小的元素是 3 号元素

    • 取出 3 号元素放入 R ,并从 D 和 O 中删除
    • 因为 3 号元素是核心对象,找到 3 号元素在 D 中的所有密度直达对象(剩余的所有样本点),并计算可达距离
    • 同时更新 O
    • 此时D{2,4,5,6} R{0,1,3} O{6,5,2,4}

    |-------------|--------|--------|--------|--------|--------|--------|--------|----------|
    | 索引 | 0 | 1 | 2 | 3 | 4 | 5 | 6 | 核心对象 |
    | 元素 | (1, 2) | (2, 5) | (8, 7) | (3, 6) | (8, 8) | (7, 3) | (4, 5) | |
    | 核心距离 | 3.16 | 1.41 | 1.0 | 1.41 | 1.0 | 3.61 | 1.41 | |
    | 第三次可达距离 | -- | -- | 5.09 | -- | 5.39 | 5.0 | 1.41 | 3 |

  • 此时 O 中可达距离最小的元素是 6 号元素

    • 取出 6 号元素放入 R ,并从 D 和 O 中删除
    • 因为 6 号元素是核心对象,找到 6 号元素在 D 中的所有密度直达对象(剩余的所有样本点),并计算可达距离,同时更新 O
    • 此时D{2,4,5},R{0,1,3,6},O(5,2,4}

    |-------------|--------|--------|--------|--------|--------|--------|--------|----------|
    | 索引 | 0 | 1 | 2 | 3 | 4 | 5 | 6 | 核心对象 |
    | 元素 | (1, 2) | (2, 5) | (8, 7) | (3, 6) | (8, 8) | (7, 3) | (4, 5) | |
    | 核心距离 | 3.16 | 1.41 | 1.0 | 1.41 | 1.0 | 3.61 | 1.41 | |
    | 第四次可达距离 | -- | -- | 4.47 | -- | 5.0 | 3.61 | -- | 6 |

  • 此时 O 中可达距离最小的元素是 5 号元素

    • 取出 5 号元素放入 R ,并从 D 和 O 中删除
    • 因为 5 号元素是核心对象,找到 5 号元素在 D 中的所有密度直达对象(剩余的所有样本点),并计算可达距离,同时更新 O。
    • 注意本次计算的4号元素到5号元素的可达距离是5.10,大于5.0,因此不更新4号元素的可达距离
    • 此时D{2,4}R{0,1,3,6,5} O(2,4)

    |-------------|--------|--------|--------|--------|------------|--------|--------|----------|
    | 索引 | 0 | 1 | 2 | 3 | 4 | 5 | 6 | 核心对象 |
    | 元素 | (1, 2) | (2, 5) | (8, 7) | (3, 6) | (8, 8) | (7, 3) | (4, 5) | |
    | 核心距离 | 3.16 | 1.41 | 1.0 | 1.41 | 1.0 | 3.61 | 1.41 | |
    | 第五次可达距离 | -- | -- | 4.12 | -- | 5.0 (5.10) | -- | -- | 5 |

  • 此时 O 中可达距离最小的元素是 2 号元素

    • 取出 2 号元素放入 R ,并从 D 和 O 中删除
    • 因为 2 号元素是核心对象,找到 2 号元素在 D 中的所有密度直达对象,并计算可达距离,同时更新 O

    |-------------|--------|--------|--------|--------|--------|--------|--------|----------|
    | 索引 | 0 | 1 | 2 | 3 | 4 | 5 | 6 | 核心对象 |
    | 元素 | (1, 2) | (2, 5) | (8, 7) | (3, 6) | (8, 8) | (7, 3) | (4, 5) | |
    | 核心距离 | 3.16 | 1.41 | 1.0 | 1.41 | 1.0 | 3.61 | 1.41 | |
    | 第六次可达距离 | -- | -- | -- | -- | 1.0 | -- | -- | 2 |

所以最后的R:(0,1,3,6,5,2,4) ,对应的可达距离为:{∞,3.16,1.41,1.41,3.61,4.12,1.0}

按照最终的输出顺序绘制可达距离图

  • 可以发现,可达距离呈现两个波谷,也即表现为两个簇,波谷越深,表示簇越紧密
  • 只需要在两个波谷之间取一个合适的 eps 分隔值(图中蓝色的直线),使用 DBSCAN 算法就会聚类为两个簇。
  • 即第一个簇的元素为:0、1、3、6、5;第二个簇的元素为:2、4。

1.4 和DBSCAN的异同

  • OPTICS算法与DBSCAN算法有许多相似之处,可以被视为DBSCAN的一种泛化,它将eps要求从单一值放宽到值范围
  • DBSCAN和OPTICS之间的关键区别在于,OPTICS算法构建了一个可达性图,为每个样本分配了一个可达性距离和在集群排序属性中的位置
    • 这两个属性在模型拟合时被赋值,并用于确定集群成员资格

1.5 可达性距离

  • OPTICS生成的可达性距离允许在单个数据集中提取可变密度的集群
    • 结合可达性距离和数据集排序产生了一个可达性图,其中点密度在Y轴上表示,点的排序使得附近的点相邻
    • 平行于x轴"切割"可达性图产生了类似DBSCAN的结果:
      • 所有在"切割"线以上的点被分类为噪声
      • 每当从左到右阅读时出现间断时,就标志着一个新的集群
  • OPTICS的默认集群提取方法是查看图中的陡峭斜坡以找到集群,可以使用xi参数定义什么算作陡峭斜坡

1.6 计算复杂度

  • 空间索引树用于避免计算完整的距离矩阵,并允许在大量样本集上有效地使用内存
  • 对于大型数据集,可以通过HDBSCAN获得类似(但不完全相同)的结果。
    • HDBSCAN实现是多线程的,并且比OPTICS具有更好的算法运行时间复杂性,但以较差的内存扩展为代价

2 sklearn.cluster.OPTICS

python 复制代码
class sklearn.cluster.OPTICS(
    *, 
    min_samples=5, 
    max_eps=inf, 
    metric='minkowski', 
    p=2, 
    metric_params=None, 
    cluster_method='xi', 
    eps=None, 
    xi=0.05, 
    predecessor_correction=True, 
    min_cluster_size=None, 
    algorithm='auto', 
    leaf_size=30, 
    memory=None, 
    n_jobs=None)

2.1 主要参数

|------------------|------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|
| min_samples | int > 1 或介于0和1之间的浮点数,默认为5 点被视为核心点时,邻域中的样本数量 如果是浮点数,表示样本数量的一部分 |
| max_eps | 两个样本被视为彼此邻域的最大距离。 np.inf的默认值将识别所有规模的聚类; 降低max_eps将导致更短的运行时间 |
| metric | str或可调用,默认为'minkowski' 用于距离计算的度量。可以使用 来自scikit-learn:['cityblock', 'cosine', 'euclidean', 'l1', 'l2', 'manhattan'] 来自scipy.spatial.distance:['braycurtis', 'canberra', 'chebyshev', 'correlation', 'dice', 'hamming', 'jaccard', 'kulsinski', 'mahalanobis', 'minkowski', 'rogerstanimoto', 'russellrao', 'seuclidean', 'sokalmichener', 'sokalsneath', 'sqeuclidean', 'yule'] |
| p | 闵可夫斯基度量的参数 |
| xi | float在0和1之间,默认为0.05 确定可达性图中构成聚类边界的最小陡度。 例如,可达性图中的向上点被定义为一个点与其后继的比率最多为1-xi。 仅在cluster_method='xi'时使用 |
| min_cluster_size | int > 1 或介于0和1之间的浮点数,默认为None OPTICS聚类中的最小样本数量,表示为绝对数量或样本数量的一部分(至少为2)。如果为None,则使用min_samples的值。 仅在cluster_method='xi'时使用。 |
| algorithm | {'auto', 'ball_tree', 'kd_tree', 'brute'},默认为'auto' 用于计算最近邻居的算法: 'ball_tree'将使用BallTree。 'kd_tree'将使用KDTree。 'brute'将使用蛮力搜索。 'auto'(默认)将尝试根据传递给fit方法的值决定最合适的算法。 |
| leaf_size | 传递给BallTree或KDTree的叶子大小。这会影响构建和查询的速度,以及存储树所需的内存。最佳值取决于问题的性质。 |
| cluster_method | str,默认为'xi' 使用计算的可达性和排序提取聚类的方法。可能的值是"xi"和"dbscan" |

2.2. 举例

python 复制代码
from sklearn.cluster import OPTICS
import numpy as np

X = np.array([[1, 2], [1, 4], [1, 0],
              [10, 2], [10, 4], [10, 0]])

op=OPTICS(min_samples=2).fit(X)

op.labels_
#array([0, 0, 0, 1, 1, 1])

op.ordering_
#array([0, 1, 2, 3, 4, 5])
#按聚类顺序排列的样本索引列表

op.reachability_
#array([inf,  2.,  2.,  9.,  2.,  2.])
#按对象顺序索引的每个样本的可达距离

op.core_distances_
#array([inf,  2.,  2.,  9.,  2.,  2.])
#每个样本成为核心点的核心距离
#永远不会成为核心的点的距离为无穷大。

参考内容:机器学习笔记(十一)聚类算法OPTICS原理和实践_optics聚类_大白兔黑又黑的博客-CSDN博客

(4)聚类算法之OPTICS算法 - 知乎 (zhihu.com)

相关推荐
Purple Coder28 分钟前
第6章 图论
笔记
巫师不要去魔法部乱说1 小时前
PyCharm专项训练4 最小生成树算法
算法·pycharm
IT猿手1 小时前
最新高性能多目标优化算法:多目标麋鹿优化算法(MOEHO)求解GLSMOP1-GLSMOP9及工程应用---盘式制动器设计,提供完整MATLAB代码
开发语言·算法·机器学习·matlab·强化学习
阿七想学习1 小时前
数据结构《排序》
java·数据结构·学习·算法·排序算法
王老师青少年编程1 小时前
gesp(二级)(12)洛谷:B3955:[GESP202403 二级] 小杨的日字矩阵
c++·算法·矩阵·gesp·csp·信奥赛
胡西风_foxww2 小时前
【ES6复习笔记】数值扩展(16)
前端·笔记·es6·扩展·数值
Kenneth風车2 小时前
【机器学习(九)】分类和回归任务-多层感知机(Multilayer Perceptron,MLP)算法-Sentosa_DSML社区版 (1)111
算法·机器学习·分类
eternal__day2 小时前
数据结构(哈希表(中)纯概念版)
java·数据结构·算法·哈希算法·推荐算法
APP 肖提莫2 小时前
MyBatis-Plus分页拦截器,源码的重构(重构total总数的计算逻辑)
java·前端·算法
OTWOL2 小时前
两道数组有关的OJ练习题
c语言·开发语言·数据结构·c++·算法