机器学习 —— 聚类算法

目录

一、概念

二、聚类算法分类

1.根据聚类颗粒度分类

2.实现方式

[三、质心 和 簇](#三、质心 和 簇)

[第一步 ->](#第一步 ->)

[第二步 ->](#第二步 ->)

[第三步 ->](#第三步 ->)

[第四步 ->](#第四步 ->)

代码案例

1.创建数据集

2.绘制散点图

[3.使用K-means 聚类](#3.使用K-means 聚类)

[4.聚类后 看散点图](#4.聚类后 看散点图)

5.模型评估


一、概念

无监督学习 (有特征,无标签)

聚类算法是一类无监督学习方法,在讲数据划分为若干组(簇),使得同一簇内的样本相似度搞,而不同簇间的样本差异大。

根据样本之间的相识性,讲样本划分到不同的类别中,不同的相似度计算方法,会得到不同的聚类结果。常用相似度欧式距离法计算

聚类算法的目的是在没有先验知识的情况下,自动发现数据集中的内在结构和模式。

实际应用:

用户画像,广告推荐,搜索引擎的流量推荐,恶意流量识别。

基于位置信息的商业推送,新闻聚类,筛选排序。(LBS的信息推送)

图像分割,降维,识别。 离群点检测,信用卡异常消费。 发掘相同功能的基因片段。

二、聚类算法分类

1.根据聚类颗粒度分类

粗聚类、细聚类

2.实现方式

基于划分的聚类:K-means算法->按照质心(一个簇的中心位置,通过均值计算)分类

基于层次的聚类:DIANA(自顶向下)AGNES(自底向上)

基于密度的聚类:DBSCAN算法

三、质心 和 簇

第一步 ->

初始化 分簇 假设分为两个簇,给两个质心点

初始化质心点的时候,可以是原始数据中的某一个点

第二步 ->

计算距离分簇

每个样本和不同的质心点计算距离,离它最近的那个,就是属于那个簇。

每个样本都计算和质心点的距离。

第三步 ->

计算完距离后,分了两个簇

接下来,在簇内,计算每个样本的xy平均值 ,找新的质心点,新的质心点的位置,

同簇内(x平均值,y平均值)

注意:新的质心点,不一定是样本点。(极低概率是样本点)

第四步 ->

计算产生新的质心点后,所有的样本再算距离新质心点的距离,重新分簇。

!什么时候停止?即什么时候聚类结束?

如果计算出来的质心点的位置和上一次质心点的位置一致。即停止聚类。

代码案例

1.创建数据集

python 复制代码
from sklearn.datasets import make_blobs #造数据
python 复制代码
# 1.创建数据集
'''
    参数1:样本数据
    参数2:每个样本的特征数量(维度)
    参数3:聚类中心坐标,设置4个质心点 (随便给)
    参数4: 标准差(cluster_std),就是控制每一类数据的 "散开程度"
                                标准差越小 → 数据越集中、紧凑
                                标准差越大 → 数据越分散、松散
           第 1 类:散得更开(std=0.4)第 2、3、4 类:更紧凑(std=0.2)
    参数5: 随机种子
                   
                   
    return x,y
        x: 一个二维的数据集       numpy.ndarray类型 
            [[ 1.23888592  1.13588028]
             [-0.56002843  1.14623716]
             [-1.35573954  1.25321833]  
             ...
            ]]     
        y:一个维数 集合   {0..3}..
          为什么是0-3   因为centers 用了4个质心点 也就是4个簇
'''
x,y = make_blobs(n_samples=1000,
                 n_features=2,
                 centers=[[-1,1],[0,0],[1,1],[2,2]],
                 cluster_std=[0.4,0.2,0.2,0.2],
                 random_state=444)

2.绘制散点图

python 复制代码
# 2.绘制散点图
plt.figure()
plt.scatter(x[:,0],x[:,1])
plt.show()

3.使用K-means 聚类

python 复制代码
from sklearn.cluster import KMeans #聚类算法
python 复制代码
# 3.使用KM 进行聚类
y_pred = KMeans(n_clusters=4).fit_predict(x)

4.聚类后 看散点图

python 复制代码
# 4.给颜色,再看散点图
plt.scatter(x[:,0],x[:,1],c=y_pred) #用每个点来分配颜色
plt.show()

5.模型评估

python 复制代码
#5 模型评估
# 簇 内越小越好,簇 间 越大越好
print(calinski_harabasz_score(x,y_pred))
相关推荐
AI科技星2 小时前
基于v≡c第一性原理:密度的本质与时空动力学
人工智能·学习·算法·机器学习·数据挖掘
墨北小七2 小时前
YOLO:为什么机器人的“眼睛”,非它莫属?
人工智能·深度学习·神经网络
guslegend2 小时前
第8节:打造可配置,可扩展的自动化预处理流水线
人工智能·大模型·rag
tinygone2 小时前
从0开始基于Karpathy的理念搭建Wiki
人工智能·经验分享
FluxMelodySun2 小时前
机器学习(三十一) 半监督SVM与图半监督学习
人工智能·算法·机器学习
weixin_408099672 小时前
【实战教程】EasyClick 调用 OCR 文字识别 API(自动识别屏幕文字 + 完整示例代码)
前端·人工智能·后端·ocr·api·安卓·easyclick
2301_764441332 小时前
SleepFM多模态睡眠基础模型
人工智能·开源·github
想你依然心痛2 小时前
HarmonyOS 5.0教育科技开发实战:构建AI个性化学习与分布式协同教育系统
人工智能·学习·harmonyos
管二狗赶快去工作!2 小时前
体系结构论文(108):Large Language Models for EDA: Future or Mirage?
人工智能·机器学习