【手撕算法】K-Means聚类全解析:从数学推导到图像分割实战

摘要

聚类算法是探索数据内在结构的利器!本文手撕K-Means核心公式,结合Python代码实现与图像分割案例,详解:

✅ 欧氏距离计算 ✅ 簇中心迭代更新 ✅ 肘部法则优化


目录

摘要

目录

一、算法核心思想

二、数学原理详解

[2.1 初始化阶段](#2.1 初始化阶段)

[2.2 迭代更新公式](#2.2 迭代更新公式)

[2.3 收敛条件](#2.3 收敛条件)

三、Python代码实战

[3.1 手写K-Means核心逻辑](#3.1 手写K-Means核心逻辑)

[3.2 图像分割实战案例](#3.2 图像分割实战案例)

四、算法优化技巧

[4.1 K-Means++初始化](#4.1 K-Means++初始化)

[4.2 肘部法则确定K值](#4.2 肘部法则确定K值)

五、常见问题解答

Q1:如何处理不同量纲的特征?

Q2:算法陷入局部最优怎么办?

六、结语与资源

附录:其他聚类算法


一、算法核心思想

K-Means通过最小化簇内平方和 实现聚类,目标函数为:

其中:

  • :预设簇数量

  • :第i个簇的中心点

  • :第i个簇的数据集合


二、数学原理详解

2.1 初始化阶段

随机选择k个初始质心:

2.2 迭代更新公式

  1. 分配样本到最近簇

  2. 更新簇中心

2.3 收敛条件

当簇中心变化量小于阈值时停止:


三、Python代码实战

3.1 手写K-Means核心逻辑

复制代码
import numpy as np

class KMeans:
    def __init__(self, n_clusters=3, max_iter=300):
        self.n_clusters = n_clusters  # 簇数量
        self.max_iter = max_iter      # 最大迭代次数
        
    def fit(self, X):
        # 1. 随机初始化质心
        n_samples, n_features = X.shape
        self.centroids = X[np.random.choice(n_samples, self.n_clusters, replace=False)]
        
        for _ in range(self.max_iter):
            # 2. 计算样本到质心的距离
            distances = np.sqrt(((X - self.centroids[:, np.newaxis])**2).sum(axis=2))
            
            # 3. 分配样本到最近簇
            self.labels = np.argmin(distances, axis=0)
            
            # 4. 更新质心
            new_centroids = np.array([X[self.labels == i].mean(axis=0) 
                                    for i in range(self.n_clusters)])
            
            # 5. 检查收敛
            if np.allclose(self.centroids, new_centroids):
                break
            self.centroids = new_centroids
            
        return self

3.2 图像分割实战案例

复制代码
from sklearn.datasets import load_sample_image
import matplotlib.pyplot as plt

# 加载示例图片
china = load_sample_image("china.jpg")
X = china.reshape(-1, 3) / 255.0  # 归一化像素值

# 使用K-Means进行颜色量化
kmeans = KMeans(n_clusters=16).fit(X)
compressed_colors = kmeans.centroids[kmeans.labels].reshape(china.shape)

# 可视化对比
fig, (ax1, ax2) = plt.subplots(1, 2, figsize=(12,6))
ax1.imshow(china)
ax2.imshow(compressed_colors)
ax1.set_title("原始图像(16.7万色)")
ax2.set_title("压缩后图像(16色)")

四、算法优化技巧

4.1 K-Means++初始化

初始化方法 优点 实现步骤
随机初始化 简单快速 直接随机选取样本
K-Means++ 减少局部最优 按概率分布选择初始点

4.2 肘部法则确定K值

复制代码
# 计算不同K值的SSE
sse = []
for k in range(1, 10):
    kmeans = KMeans(n_clusters=k).fit(X)
    sse.append(np.sum((X - kmeans.centroids[kmeans.labels])**2))

# 绘制肘部曲线
plt.plot(range(1,10), sse, 'bx-')
plt.xlabel('K值')
plt.ylabel('SSE')

五、常见问题解答

Q1:如何处理不同量纲的特征?

解决方案 :使用标准化预处理

Q2:算法陷入局部最优怎么办?

  • 多次随机初始化取最优结果

  • 增加max_iter参数值

  • 改用K-Means++初始化


六、结语与资源

通过本文您已掌握:

🔹 K-Means数学本质 🔹 手写实现关键代码 🔹 图像分割高级应用


附录:其他聚类算法

算法名称 适用场景 核心公式
DBSCAN 任意形状簇 密度可达性
层次聚类 树状结构 距离矩阵合并
GMM 概率分布 EM算法迭代
相关推荐
董董灿是个攻城狮2 小时前
AI视觉连载8:传统 CV 之边缘检测
算法
AI软著研究员9 小时前
程序员必看:软著不是“面子工程”,是代码的“法律保险”
算法
FunnySaltyFish9 小时前
什么?Compose 把 GapBuffer 换成了 LinkBuffer?
算法·kotlin·android jetpack
颜酱10 小时前
理解二叉树最近公共祖先(LCA):从基础到变种解析
javascript·后端·算法
地平线开发者1 天前
SparseDrive 模型导出与性能优化实战
算法·自动驾驶
董董灿是个攻城狮1 天前
大模型连载2:初步认识 tokenizer 的过程
算法
地平线开发者1 天前
地平线 VP 接口工程实践(一):hbVPRoiResize 接口功能、使用约束与典型问题总结
算法·自动驾驶
罗西的思考1 天前
AI Agent框架探秘:拆解 OpenHands(10)--- Runtime
人工智能·算法·机器学习
HXhlx1 天前
CART决策树基本原理
算法·机器学习
Wect1 天前
LeetCode 210. 课程表 II 题解:Kahn算法+DFS 双解法精讲
前端·算法·typescript