无监督学习-K-means

1、 什么是无监督学习

  • 一家广告平台需要根据相似的人口学特征和购买习惯将美国人口分成不同的小组,以便广告客户可以通过有关联的广告接触到他们的目标客户。
  • Airbnb 需要将自己的房屋清单分组成不同的社区,以便用户能更轻松地查阅这些清单。
  • 一个数据科学团队需要降低一个大型数据集的维度的数量,以便简化建模和降低文件大小。

我们可以怎样最有用地对其进行归纳和分组?我们可以怎样以一种压缩格式有效地表征数据?这都是无监督学习的目标,之所以称之为无监督,是因为这是从无标签的数据开始学习的。

2、K-means原理

我们先来看一下一个K-means的聚类效果图

3、K-means聚类步骤

  • 1、随机设置K个 特征空间内的点作为初始的聚类中心
  • 2、计算其他每个点计算到K个中心的距离(欧式距离),之后选择距离最小的一个聚类中心点作为标记类别
  • 3、接着对着标记的聚类中心之后,重新计算出每个聚类的新中心点(类中每个点的平均值)
  • 4、如果计算得出的新中心点与原中心点一样 或者 新旧聚类中心的距离变化不大 或者 达到一定的迭代次数 ,那么结束,否则重新进行第二步过程
    我们以一张图来解释效果

4、K-meansAPI

  • sklearn.cluster.KMeans(n_clusters=8,init='k-means++')
    • k-means聚类
    • n_clusters:开始的聚类中心数量
    • init:初始化方法,默认为'k-means ++'
    • labels_:默认标记的类型,可以和真实值比较(不是值比较)

5、代码

python 复制代码
from sklearn.cluster import KMeans

km = KMeans(n_clusters=4)
km.fit(cust)
pre = km.predict(cust)

问题:如何去评估聚类的效果呢?

6、Kmeans性能评估指标

6.1 轮廓系数

注:对于每个点i 为已聚类数据中的样本 ,b_i 为i 到其它族群 的所有样本的距离最小值 ,a_i 为i 到本身簇距离平均值 。最终计算出所有的样本点的轮廓系数平均值

6.2、轮廓系数值分析

  • 分析过程(我们以一个蓝1点为例)

    • 1、计算出蓝1离本身族群所有点的距离的平均值a_i

    • 2、蓝1到其它两个族群的距离计算出平均值红平均,绿平均,取最小的那个距离作为b_i

    • 根据公式:极端值考虑:如果b_i >>a_i: 那么公式结果趋近于1;如果a_i>>>b_i: 那么公式结果趋近于-1

6.3 结论

  • 高内聚,低耦合,是衡量该指标优劣的重要参数,理解为,簇内的样本样本间距越小,簇间的距离越大,代表性能最好;
  • 如果b_i>>a_i:趋近于1效果越好, b_i<<a_i:趋近于-1,效果不好。
    轮廓系数的值是介于 [-1,1] ,越趋近于1代表内聚度和分离度都相对较优。
相关推荐
kisshuan123962 分钟前
Ghost卷积瓶颈轻量化改进YOLOv26双阶段压缩与残差学习协同突破
学习·yolo
天疆说19 分钟前
【拓扑学+航天轨道动力学】同伦(Homotopy)概念解析
人工智能·算法·拓扑学
EnglishJun22 分钟前
ARM嵌入式学习(一) --- 入门51
arm开发·学习
爱装代码的小瓶子22 分钟前
【c++与Linux进阶】线程篇 -互斥锁
linux·c++·算法
别或许24 分钟前
03线性代数之向量组(知识总结)
线性代数·算法·机器学习
一叶落43824 分钟前
LeetCode 149. 直线上最多的点数(C语言详解 | 斜率 + 最大共线点)
数据结构·c++·算法·leetcode
技术小黑25 分钟前
TensorFlow学习系列07 | 实现咖啡豆识别
人工智能·学习·tensorflow
仰泳的熊猫26 分钟前
题目2267:蓝桥杯2016年第七届真题-取球博弈
数据结构·c++·算法·蓝桥杯·深度优先·图论
逆境不可逃27 分钟前
LeetCode 热题 100 之 152. 乘积最大子数组 416. 分割等和子集 32. 最长有效括号 62. 不同路径
算法·leetcode·职场和发展
DeepModel29 分钟前
【概率分布】几何分布超详细解析
算法·概率论