解密K-means:简单易懂的算法指南

一、什么是聚类分析?

想象你在超市整理货架:把饮料放在一起,零食归为一类,日用品另放一个区域------这个过程本质上就是聚类。在机器学习中,聚类算法就是帮计算机自动完成这种分类任务的工具。

关键特点

  • 无监督学习:不需要预先标记的数据
  • 发现数据内在结构
  • 适用于客户分群、图像分割、文档归类等场景

二、K-means算法核心原理

算法三步曲

  1. 选队长:随机选择K个初始中心点(质心)
  2. 站队伍:每个数据点加入最近的质心队伍
  3. 换队长:根据队伍成员重新计算中心点
  4. 重复2-3步直到队伍稳定

数学本质

最小化平方误差
J = ∑ i = 1 k ∑ x ∈ C i ∣ ∣ x − μ i ∣ ∣ 2 J = \sum_{i=1}^k \sum_{x \in C_i} ||x - \mu_i||^2 J=i=1∑kx∈Ci∑∣∣x−μi∣∣2

其中 μ i \mu_i μi是第i个聚类的中心

三、关键实现细节

1. 距离计算

使用欧氏距离 (直线距离):
d ( p , q ) = ∑ i = 1 n ( p i − q i ) 2 d(p,q) = \sqrt{\sum_{i=1}^n (p_i - q_i)^2} d(p,q)=i=1∑n(pi−qi)2

实际代码中使用向量化计算:

python 复制代码
# 计算所有点到所有质心的距离
distances = np.linalg.norm(points[:, np.newaxis] - centroids, axis=2)

2. 空聚类处理

当某个聚类没有数据点时:

  • 常见策略:随机选择一个数据点作为新质心
  • 改进方案:使用K-means++初始化

3. 收敛判断

当质心移动距离小于阈值时停止迭代:

python 复制代码
if np.allclose(centroids, new_centroids, atol=1e-4):
    break

Code

python 复制代码
import numpy as np

def euclidean_distance(a, b):
    return np.sqrt(((a - b) ** 2).sum(axis=1))

def k_means_clustering(points, k, initial_centroids, max_iterations):
    points = np.array(points)
    centroids = np.array(initial_centroids)
    
    for iteration in range(max_iterations):
        # Assign points to the nearest centroid
        distances = np.array([euclidean_distance(points, centroid) for centroid in centroids])
        assignments = np.argmin(distances, axis=0)

        new_centroids = np.array([points[assignments == i].mean(axis=0) if len(points[assignments == i]) > 0 else centroids[i] for i in range(k)])
        
        # Check for convergence
        if np.allclose(centroids, new_centroids, atol=1e-4):
		    break
        centroids = new_centroids
        centroids = np.round(centroids,4)
    return [tuple(centroid) for centroid in centroids]

四、算法优缺点

优势

  • 简单高效,时间复杂度O(nkt)
  • 适合处理大数据集
  • 容易实现和解释

局限

  • 需要预先指定K值
  • 对初始质心敏感
  • 只能发现球形聚类
  • 对噪声和异常值敏感

五、实战建议

1. 数据预处理

  • 必须进行特征标准化(Z-score标准化)
  • 处理缺失值
  • 降维可视化(PCA/t-SNE)

2. 选择K值的方法

方法 原理
肘部法则 寻找误差下降的拐点
轮廓系数 评估聚类紧密度和分离度
业务需求 根据实际应用场景确定

3. 改进方案

  • K-means++:更聪明的初始化方法

  • Mini-Batch K-means:适合大规模数据

  • 核K-means:处理非线性可分数据

结语

K-means算法就像一位严谨的交通指挥员,通过不断调整"集合点"的位置,最终让数据点找到属于自己的最优归属。理解这个算法的核心在于把握"距离最小化"和"迭代优化"的思想,这也是许多机器学习算法的共同精髓。

思考题:如果我们要对百万量级的高维数据(如电商用户行为数据)进行聚类,应该怎样优化K-means算法?这个问题的答案将引导我们进入分布式计算和维度约减的领域,而这正是现代机器学习实践的精彩之处。

相关推荐
ClaNNEd@1 小时前
大话数据结构第二章,算法笔记
数据结构·笔记·算法
圣保罗的大教堂3 小时前
《算法笔记》9.3小节——数据结构专题(2)->树的遍历 问题 A: 树查找
算法
乌云暮年5 小时前
算法刷题整理合集(四)
java·开发语言·算法·dfs·bfs
Luo_LA6 小时前
【排序算法对比】快速排序、归并排序、堆排序
java·算法·排序算法
AI技术控6 小时前
机器学习算法实战——天气数据分析(主页有源码)
算法·机器学习·数据分析
oioihoii6 小时前
C++20 中的同步输出流:`std::basic_osyncstream` 深入解析与应用实践
c++·算法·c++20
猪猪成6 小时前
【图论】FLOYD弗洛伊德算法-最短路径
学习·算法·图论
HR Zhou6 小时前
群体智能优化算法-粒子群优化算法(Particle Swarm Optimization, PSO,含Matlab源代码)
算法·matlab·优化·智能优化算法
SylviaW086 小时前
python-leetcode 48.括号生成
算法·leetcode·职场和发展
Ronin-Lotus7 小时前
深度学习篇---分类任务图像预处理&模型训练
人工智能·python·深度学习·机器学习·分类·模型训练·分类任务