聚类方法K-means和DBSCAN,附matlab代码

目录

引言

聚类的主要特点

聚类算法的主要步骤

聚类的应用场景

聚类算法的局限性

聚类方法

[1. K-means聚类算法](#1. K-means聚类算法)

[2. DBSCAN聚类算法](#2. DBSCAN聚类算法)

[3. 层次聚类算法](#3. 层次聚类算法)


引言

聚类(Clustering)是数据挖掘和统计学中的一个重要概念,它是一种无监督学习的方法,用于将数据集中的样本或观测值分组为若干个类或簇(Cluster),使得同一簇内的样本之间相似度较高,而不同簇的样本之间相似度较低。与监督学习(如分类)不同,聚类不需要事先知道每个样本的类别标签,它完全基于数据本身的特征来进行分组。

聚类的主要特点

  1. 无监督学习:聚类算法不需要训练数据集中的标签信息,它们仅根据数据本身的特征来发现数据的内在结构。
  2. 发现隐藏模式:聚类可以帮助我们发现数据中的隐藏模式或群组,这些群组可能对应着数据的不同类别或子群体。
  3. 多样性和灵活性:存在多种聚类算法,每种算法都有其独特的优势和适用场景,如基于距离的聚类(如K-means)、基于密度的聚类(如DBSCAN)、基于层次的聚类(如AGNES和DIANA)等。

聚类算法的主要步骤

  1. 特征选择:选择用于聚类的数据特征。
  2. 相似性度量:定义如何计算样本之间的相似性或距离。
  3. 聚类算法选择:根据数据的特性和需求选择合适的聚类算法。
  4. 执行聚类:应用选定的聚类算法对数据进行分组。
  5. 评估聚类结果:评估聚类结果的质量,可能需要根据实际需求进行多次迭代调整。
  6. 结果解释和应用:解释聚类结果,并将其应用于实际问题解决中。

聚类的应用场景

聚类在多个领域都有广泛的应用,包括但不限于:

  • 市场细分:将消费者根据购买行为、偏好等特征进行分组,以制定更精准的营销策略。
  • 生物信息学:对基因表达数据进行聚类,以发现具有相似表达模式的基因群组。
  • 图像处理:对图像中的像素或特征进行聚类,以实现图像分割、目标检测等任务。
  • 社交网络分析:对用户或群组进行聚类,以发现社交网络中的社区结构或用户行为模式。
  • 文本挖掘:对文档或文本数据进行聚类,以发现主题或信息类别。

聚类算法的局限性

尽管聚类具有广泛的应用,但它也存在一些局限性:

  • 聚类结果的不确定性:由于聚类是无监督学习,聚类结果可能受到算法选择、参数设置等多种因素的影响,导致结果具有一定的不确定性。
  • 对数据质量的依赖:聚类效果很大程度上依赖于输入数据的质量,如数据的完整性、准确性等。
  • 难以解释性:在某些情况下,聚类结果可能难以直观解释或理解,特别是对于高维数据或复杂数据集。

总之,聚类是一种强大的数据分析工具,它可以帮助我们发现数据中的隐藏模式和群组结构,为后续的决策分析提供有力支持。然而,在实际应用中,我们也需要充分考虑其局限性和挑战,以选择合适的聚类方法和策略。

聚类方法

常用的聚类方法多种多样,每种方法都有其独特的优势和适用场景。以下是一些常用的聚类方法及其详细介绍:

1. K-means聚类算法

概述

K-means聚类算法是一种基于划分的聚类方法,由James MacQueen在1967年提出。该算法将数据分为K个簇,通过迭代的方式优化簇内数据点的平均距离,使得同一簇内的数据点尽可能相似,而不同簇间的数据点尽可能不同。

步骤

  1. 随机选择K个数据点作为初始的聚类中心。
  2. 计算每个数据点与各个聚类中心之间的距离,将数据点分配到最近的聚类中心所在的簇中。
  3. 重新计算每个簇的聚类中心(通常是簇内数据点的均值)。
  4. 重复步骤2和3,直到聚类中心不再发生变化或达到其他终止条件(如迭代次数限制、误差平方和局部最小等)。

优点

  • 实现简单,收敛速度快。
  • 聚类效果通常较好,特别是当簇的形状接近球形时。

缺点

  • 需要事先指定聚类数目K。

  • 对初始聚类中心的选择敏感,可能导致不同的聚类结果。

  • 对噪声和异常值敏感。

    clc;
    clear;

    % 假设data已经被加载,并且是一个二维数组(N x M),其中N是样本数,M是特征数

    % 聚类中心的数量
    k = 3;

    % 显示原始数据的一部分(可选)
    figure;
    subplot(1,2,1);
    plot(data(:,1), data(:,2), 'o'); % 假设我们有两个特征来可视化
    xlabel('Feature 1');
    ylabel('Feature 2');
    title('Original Data Points');
    grid on;

    % 初始化聚类中心(随机选择)
    indices = randperm(size(data, 1), k);
    CC = data(indices, :);

    % 初始化距离矩阵和聚类分配矩阵
    D = zeros(size(data, 1), k);
    C = cell(1, k);
    for i = 1:k
    C{i} = [];
    end

    % 迭代过程
    while true
    % 计算每个点到每个聚类中心的距离
    for i = 1:size(data, 1)
    for j = 1:k
    D(i, j) = sqrt(sum((data(i, :) - CC(j, :)) .^ 2, 2)); % 计算欧氏距离
    end
    [~, minIndex] = min(D(i, :)); % 找到最近的聚类中心索引
    % 更新聚类分配
    if ~isempty(C{minIndex})
    C{minIndex} = [C{minIndex}, i];
    else
    C{minIndex} = i;
    end
    end

      % 重新计算聚类中心  
      newCC = zeros(k, size(data, 2));  
      for j = 1:k  
          if ~isempty(C{j})  
              newCC(j, :) = mean(data(C{j}, :), 1); % 计算新的聚类中心  
          end  
      end  
    
      % 检查聚类中心是否收敛  
      if all(newCC == CC, 'all')  
          break;  
      end  
    
      CC = newCC; % 更新聚类中心  
    

    end

    % 绘制聚类结果
    figure;
    subplot(1,2,2);
    colors = ['r', 'g', 'b'];
    for j = 1:k
    if ~isempty(C{j})
    plot(data(C{j}, 1), data(C{j}, 2), '.', 'Color', colors(j));
    hold on;
    plot(newCC(j, 1), newCC(j, 2), 'kx', 'MarkerSize', 15, 'LineWidth', 3, 'Color', colors(j));
    end
    end
    xlabel('Feature 1');
    ylabel('Feature 2');
    title('K-means Clustering Results');
    grid on;
    legend(arrayfun(@(j) sprintf('Cluster %d', j), 1:k, 'UniformOutput', false));

2. DBSCAN聚类算法

概述

DBSCAN(Density-Based Spatial Clustering of Applications with Noise)是一种基于密度的聚类算法。该算法将簇定义为密度相连的点的最大集合,能够发现任意形状的簇,并处理噪声点。

核心概念

  • ε邻域:给定对象半径为ε内的区域称为该对象的ε邻域。
  • 核心对象:如果给定对象ε邻域内的样本点数大于等于MinPts(最小点数),则称该对象为核心对象。
  • 密度可达密度相连:基于核心对象和ε邻域的概念,定义了密度可达和密度相连的关系,用于描述簇内数据点之间的连接性。

步骤

  1. 从数据集中随机选择一个未处理的数据点p。
  2. 如果p是核心对象,则找出所有从p密度可达的数据点,形成一个簇。
  3. 递归地对簇内的每个未处理的数据点执行步骤2,直到簇内的所有点都被处理。
  4. 重复步骤1-3,直到数据集中的所有点都被处理完毕。

优点

  • 不需要事先指定聚类数目。
  • 能够发现任意形状的簇。
  • 对噪声和异常值具有鲁棒性。

缺点

  • 对参数ε和MinPts的选择敏感。

  • 当数据集的密度差异很大时,可能难以选择合适的参数。

    function [IDX, isnoise]=DBSCAN(X,epsilon,MinPts) % DBSCAN聚类函数

      C=0;                       % 统计簇类个数,初始化为0
      
      n=size(X,1);               % 把矩阵X的行数数赋值给n,即一共有n个点
      IDX=zeros(n,1);            % 定义一个n行1列的矩阵
      
      D=pdist2(X,X);             % 计算(X,X)的行的距离
      
      visited=false(n,1);        % 创建一维的标记数组,全部初始化为false,代表还未被访问
      isnoise=false(n,1);        % 创建一维的异常点数组,全部初始化为false,代表该点不是异常点
      
      for i=1:n                  % 遍历1~n个所有的点
          if ~visited(i)         % 未被访问,则执行下列代码
              visited(i)=true;   % 标记为true,已经访问
              
              Neighbors=RegionQuery(i);     % 查询周围点中距离小于等于epsilon的个数
              if numel(Neighbors)<MinPts    % 如果小于MinPts
                  % X(i,:) is NOISE        
                  isnoise(i)=true;          % 该点是异常点
              else              % 如果大于MinPts,且距离大于epsilon
                  C=C+1;        % 该点又是新的簇类中心点,簇类个数+1
                  ExpandCluster(i,Neighbors,C);    % 如果是新的簇类中心,执行下面的函数
              end
              
          end
      
      end                    % 循环完n个点,跳出循环
      
      function ExpandCluster(i,Neighbors,C)    % 判断该点周围的点是否直接密度可达
          IDX(i)=C;                            % 将第i个C簇类记录到IDX(i)中
          
          k = 1;                             
          while true                           % 一直循环
              j = Neighbors(k);                % 找到距离小于epsilon的第一个直接密度可达点
              
              if ~visited(j)                   % 如果没有被访问
                  visited(j)=true;             % 标记为已访问
                  Neighbors2=RegionQuery(j);   % 查询周围点中距离小于epsilon的个数
                  if numel(Neighbors2)>=MinPts % 如果周围点的个数大于等于Minpts,代表该点直接密度可达
                      Neighbors=[Neighbors Neighbors2];   %#ok  % 将该点包含着同一个簇类当中
                  end
              end                              % 退出循环
              if IDX(j)==0                     % 如果还没形成任何簇类
                  IDX(j)=C;                    % 将第j个簇类记录到IDX(j)中
              end                              % 退出循坏
              
              k = k + 1;                       % k+1,继续遍历下一个直接密度可达的点
              if k > numel(Neighbors)          % 如果已经遍历完所有直接密度可达的点,则退出循环
                  break;
              end
          end
      end                                      % 退出循环
      
      function Neighbors=RegionQuery(i)        % 该函数用来查询周围点中距离小于等于epsilon的个数
          Neighbors=find(D(i,:)<=epsilon);
      end
    

3. 层次聚类算法

概述

层次聚类算法通过计算数据点之间的相似度或距离,将数据点组织成树状的层次结构。根据构建层次结构的方向,层次聚类可以分为凝聚的层次聚类(如AGNES)和分裂的层次聚类(如DIANA)。

AGNES(AGglomerative NESting)

  • 概述:AGNES是一种凝聚的层次聚类方法,它最初将每个数据点视为一个单独的簇,然后逐步合并最相似的簇,直到达到指定的簇数目或满足其他终止条件。
  • 步骤:包括初始化、合并簇、重复合并直到满足终止条件等。

DIANA(Divisive ANAlysis)

  • 概述:DIANA是一种分裂的层次聚类方法,它首先将所有数据点视为一个簇,然后逐步分裂成更小的簇,直到每个簇只包含一个数据点或达到指定的簇数目。
  • 步骤:包括初始化、选择分裂点、分裂簇、重复分裂直到满足终止条件等。

优点

  • 不需要事先指定聚类数目。
  • 能够生成聚类的层次结构,便于分析不同层次的聚类结果。

缺点

  • 计算复杂度较高,特别是对于大数据集。
  • 合并或分裂点的选择可能影响聚类结果的质量。
相关推荐
用户6915811416542 分钟前
Ascend Extension for PyTorch的源码解析
人工智能
Chef_Chen42 分钟前
从0开始学习机器学习--Day13--神经网络如何处理复杂非线性函数
神经网络·学习·机器学习
Troc_wangpeng43 分钟前
R language 关于二维平面直角坐标系的制作
开发语言·机器学习
用户691581141651 小时前
Ascend C的编程模型
人工智能
-Nemophilist-1 小时前
机器学习与深度学习-1-线性回归从零开始实现
深度学习·机器学习·线性回归
成富2 小时前
文本转SQL(Text-to-SQL),场景介绍与 Spring AI 实现
数据库·人工智能·sql·spring·oracle
CSDN云计算2 小时前
如何以开源加速AI企业落地,红帽带来新解法
人工智能·开源·openshift·红帽·instructlab
艾派森2 小时前
大数据分析案例-基于随机森林算法的智能手机价格预测模型
人工智能·python·随机森林·机器学习·数据挖掘
hairenjing11232 小时前
在 Android 手机上从SD 卡恢复数据的 6 个有效应用程序
android·人工智能·windows·macos·智能手机
小蜗子2 小时前
Multi‐modal knowledge graph inference via media convergenceand logic rule
人工智能·知识图谱