【机器学习】23. 聚类-GMM: Gaussian Mixture Model

1. 定义和假设

定义:probabilistic clustering(model-base)

假设:数据服从正态分布

2. 算法内容

我们假设数据是由k个高斯(正态)分布混合生成的。每个分布有2个参数:μ和σ。

一个分布对应一个集群

从u和o的随机初始值开始

在每次估计后,我们计算每个例子属于每个分布(簇)的概率

利用概率,我们重新计算参数,直到它们不变。

案例

假设有20000个数据点,两个高斯分布,两个标准差都是2,使用GMM聚类。

  1. 初始化均值方差。标准差限定了,初始均值即可。随机初始化均值分别为-2和3
  2. 根据贝叶斯计算概率

    0.5 是每个分布的权重
  3. 更新均值

    新的均值是基于数据点的加权平均值计算的. 权重由每个数据点属于特定分布的概率决定
  4. 迭代和收敛, 重复步骤2和步骤3, 直到μ不再产生变化或变化非常小, 数据点最终分配给概率更高的分布

3. 和K-Means对比

k-means: crisp(hard)-assignment

GMM -- probabilistic(soft assignment)

GMM可以看作是k均值的泛化

GMM更灵活。允许椭圆的cluster而不是圆形

相关推荐
byzy6 分钟前
【论文笔记】Vehicle-to-Everything Cooperative Perception for Autonomous Driving
论文阅读·深度学习·计算机视觉·自动驾驶
CS创新实验室8 分钟前
AI推理进化史:从GPT到推理模型,AI的“思考能力”如何突破?
人工智能·gpt
威迪斯特9 分钟前
项目解决方案:食堂反浪费AI智能监督系统项目解决方案
人工智能·实时视频分析·算法分析·边缘分析·ai识别盒子·餐盘浪费检测·智能食堂
AI服务老曹9 分钟前
深度解析:基于异构计算的 AI 视频管理平台架构实践
人工智能·架构·音视频
谷哥的小弟10 分钟前
大模型核心基础知识(02)—大模型的主要特征与能力边界
人工智能·深度学习·机器学习·大模型·智能体
xiaotao13119 分钟前
03-深度学习基础:LoRA与参数高效微调(PEFT)
人工智能·深度学习
Mr.敦的私房菜20 分钟前
Spring AI 企业增强版(含安全版与合规版
人工智能·安全·spring
醉卧考场君莫笑23 分钟前
NLP(命名实体识别NER)
人工智能·自然语言处理
Hello world.Joey24 分钟前
YOLO和SiamFC的不同之处
人工智能·计算机视觉·目标跟踪