机器学习 —— 聚类算法

目录

一、概念

二、聚类算法分类

1.根据聚类颗粒度分类

2.实现方式

[三、质心 和 簇](#三、质心 和 簇)

[第一步 ->](#第一步 ->)

[第二步 ->](#第二步 ->)

[第三步 ->](#第三步 ->)

[第四步 ->](#第四步 ->)

代码案例

1.创建数据集

2.绘制散点图

[3.使用K-means 聚类](#3.使用K-means 聚类)

[4.聚类后 看散点图](#4.聚类后 看散点图)

5.模型评估


一、概念

无监督学习 (有特征,无标签)

聚类算法是一类无监督学习方法,在讲数据划分为若干组(簇),使得同一簇内的样本相似度搞,而不同簇间的样本差异大。

根据样本之间的相识性,讲样本划分到不同的类别中,不同的相似度计算方法,会得到不同的聚类结果。常用相似度欧式距离法计算

聚类算法的目的是在没有先验知识的情况下,自动发现数据集中的内在结构和模式。

实际应用:

用户画像,广告推荐,搜索引擎的流量推荐,恶意流量识别。

基于位置信息的商业推送,新闻聚类,筛选排序。(LBS的信息推送)

图像分割,降维,识别。 离群点检测,信用卡异常消费。 发掘相同功能的基因片段。

二、聚类算法分类

1.根据聚类颗粒度分类

粗聚类、细聚类

2.实现方式

基于划分的聚类:K-means算法->按照质心(一个簇的中心位置,通过均值计算)分类

基于层次的聚类:DIANA(自顶向下)AGNES(自底向上)

基于密度的聚类:DBSCAN算法

三、质心 和 簇

第一步 ->

初始化 分簇 假设分为两个簇,给两个质心点

初始化质心点的时候,可以是原始数据中的某一个点

第二步 ->

计算距离分簇

每个样本和不同的质心点计算距离,离它最近的那个,就是属于那个簇。

每个样本都计算和质心点的距离。

第三步 ->

计算完距离后,分了两个簇

接下来,在簇内,计算每个样本的xy平均值 ,找新的质心点,新的质心点的位置,

同簇内(x平均值,y平均值)

注意:新的质心点,不一定是样本点。(极低概率是样本点)

第四步 ->

计算产生新的质心点后,所有的样本再算距离新质心点的距离,重新分簇。

!什么时候停止?即什么时候聚类结束?

如果计算出来的质心点的位置和上一次质心点的位置一致。即停止聚类。

代码案例

1.创建数据集

python 复制代码
from sklearn.datasets import make_blobs #造数据
python 复制代码
# 1.创建数据集
'''
    参数1:样本数据
    参数2:每个样本的特征数量(维度)
    参数3:聚类中心坐标,设置4个质心点 (随便给)
    参数4: 标准差(cluster_std),就是控制每一类数据的 "散开程度"
                                标准差越小 → 数据越集中、紧凑
                                标准差越大 → 数据越分散、松散
           第 1 类:散得更开(std=0.4)第 2、3、4 类:更紧凑(std=0.2)
    参数5: 随机种子
                   
                   
    return x,y
        x: 一个二维的数据集       numpy.ndarray类型 
            [[ 1.23888592  1.13588028]
             [-0.56002843  1.14623716]
             [-1.35573954  1.25321833]  
             ...
            ]]     
        y:一个维数 集合   {0..3}..
          为什么是0-3   因为centers 用了4个质心点 也就是4个簇
'''
x,y = make_blobs(n_samples=1000,
                 n_features=2,
                 centers=[[-1,1],[0,0],[1,1],[2,2]],
                 cluster_std=[0.4,0.2,0.2,0.2],
                 random_state=444)

2.绘制散点图

python 复制代码
# 2.绘制散点图
plt.figure()
plt.scatter(x[:,0],x[:,1])
plt.show()

3.使用K-means 聚类

python 复制代码
from sklearn.cluster import KMeans #聚类算法
python 复制代码
# 3.使用KM 进行聚类
y_pred = KMeans(n_clusters=4).fit_predict(x)

4.聚类后 看散点图

python 复制代码
# 4.给颜色,再看散点图
plt.scatter(x[:,0],x[:,1],c=y_pred) #用每个点来分配颜色
plt.show()

5.模型评估

python 复制代码
#5 模型评估
# 簇 内越小越好,簇 间 越大越好
print(calinski_harabasz_score(x,y_pred))
相关推荐
努力努力再努力FFF6 分钟前
医生对AI辅助诊断感兴趣,作为临床人员该怎么了解和学习?
人工智能·学习
Yzzz-F19 分钟前
Problem - 2205D - Codeforces
算法
AI医影跨模态组学19 分钟前
如何将纵向MRI深度学习特征与局部晚期直肠癌新辅助放化疗后的免疫微环境建立关联,并解释其对pCR及预后的机制
人工智能·深度学习·论文·医学·医学影像·影像组学
Empty-Filled20 分钟前
AI生成测试用例功能怎么测:一个完整实战案例
网络·人工智能·测试用例
eastyuxiao20 分钟前
设计一个基于 OpenClaw 的 AI 智能体来辅助交易
人工智能
Mr数据杨24 分钟前
手写数字识别如何支撑文档数字化应用
机器学习·数据分析·kaggle
波动几何1 小时前
因果动力学架构技能cda
人工智能
Lucas_coding1 小时前
【Claude Code Router】 Claude Code 兼容 OpenAI 格式 API, Claude code 接入本地部署模型
人工智能·python
jinanwuhuaguo1 小时前
(第二十七篇)OpenClaw四月的演化风暴:OpenClaw 2026年4月全版本更新的文明级解读
大数据·人工智能·架构·kotlin·openclaw
测试员周周1 小时前
【AI测试系统】第5篇:从 Archon 看 AI 工程化落地:为什么"确定性编排+AI 弹性智能"是终局?
人工智能·python·测试