9.sklearn-K-means算法

文章目录

环境配置(必看)

Anaconda-创建虚拟环境的手把手教程相关环境配置看此篇文章,本专栏深度学习相关的版本和配置,均按照此篇文章进行安装。

头文件引用

python 复制代码
from sklearn.cluster import KMeans
from sklearn.datasets import make_blobs
from sklearn.metrics import calinski_harabasz_score
import matplotlib.pyplot as plt

K-means算法

1.简介

python 复制代码
1)一种典型的无监督学习算法,
2)主要用于将相似的样本自动归到一个类别中
3)计算样本和样本之间的相似性,一般使用欧式距离

2.API

python 复制代码
sklearn.cluster.KMeans(n_clusters=8)
参数:
n_clusters:开始的聚类中心数量
整型,缺省值=8,生成的聚类数,即产生的质心(centroids)数。
方法:
estimator.fit(x)
estimator.predict(x)
estimator.fit_predict(x)
计算聚类中心并预测每个样本属于哪个类别,相当于先调用fit(x),然后再调用predict(x)

3.代码工程

python 复制代码
# 创建数据集
# X为样本特征,Y为样本簇类别, 共1000个样本,每个样本2个特征,共4个簇,
# 簇中心在[-1,-1], [0,0],[1,1], [2,2], 簇方差分别为[0.4, 0.2, 0.2, 0.2]
# n_features=2 -- 2维(x轴, y轴)2个特征
X, y = make_blobs(n_samples=1000, n_features=2, centers=[[-1, -1], [0, 0], [1, 1], [2, 2]],
                  cluster_std=[0.4, 0.2, 0.2, 0.2],
                  random_state=9)


y_pred = KMeans(n_clusters=4, random_state=9).fit_predict(X)

# 分别尝试n_cluses=2\3\4,然后查看聚类效果
plt.scatter(X[:, 0], X[:, 1], c=y_pred)
plt.show()


# 用Calinski-Harabasz Index评估的聚类分数
print(calinski_harabasz_score(X, y_pred))

4.运行结果

python 复制代码
经过测试,n_clusters=4的时候最佳
calinski_harabasz_score的值越大越好


5.模型评估

此部分知识不详细赘述了,可以自行网上搜集资料

python 复制代码
1.SSE - 误差平方和
2."肘"方法 - K值确定
3.SC - 轮廓系数法
4.CH - CH系数

6.小结

python 复制代码
K-means聚类实现流程【掌握】
1.事先确定常数K,常数K意味着最终的聚类类别数;
2.随机选定初始点为质心,并通过计算每一个样本与质心之间的相似度(这里为欧式距离),将样本点归到最相似的类中,接着,重新计算每个类的
质心(即为类中心),重复这样的过程,直到质心不再改变,最终就确定了每个样本所属的类别以及每个类的质心。
注意:
	由于每次都要计算所有的样本与每一个质心之间的相似度,故在大规模的数据集上,K-Means算法的收敛速度比较慢。
优缺点
相关推荐
拓端研究室4 分钟前
视频讲解:门槛效应模型Threshold Effect分析数字金融指数与消费结构数据
前端·算法
随缘而动,随遇而安2 小时前
第八十八篇 大数据中的递归算法:从俄罗斯套娃到分布式计算的奇妙之旅
大数据·数据结构·算法
IT古董3 小时前
【第二章:机器学习与神经网络概述】03.类算法理论与实践-(3)决策树分类器
神经网络·算法·机器学习
水木兰亭6 小时前
数据结构之——树及树的存储
数据结构·c++·学习·算法
Jess076 小时前
插入排序的简单介绍
数据结构·算法·排序算法
老一岁6 小时前
选择排序算法详解
数据结构·算法·排序算法
xindafu6 小时前
代码随想录算法训练营第四十二天|动态规划part9
算法·动态规划
xindafu7 小时前
代码随想录算法训练营第四十五天|动态规划part12
算法·动态规划
ysa0510307 小时前
Dijkstra 算法#图论
数据结构·算法·图论
一定要AK8 小时前
2025—暑期训练一
算法