吴恩达机器学习笔记:第 8 周-13 聚类(Clustering)13.3-13.5

目录

  • [第 8 周 13、 聚类(Clustering)](#第 8 周 13、 聚类(Clustering))
    • [13.3 优化目标](#13.3 优化目标)

第 8 周 13、 聚类(Clustering)

13.3 优化目标

K-均值最小化问题,是要最小化所有的数据点与其所关联的聚类中心点之间的距离之和,因此 K-均值的代价函数(又称畸变函数 Distortion function)为:
J ( c ( 1 ) , . . . , c ( m ) , u 1 , . . . , u k ) = 1 m ∑ i = 1 m ∣ ∣ X ( i ) − u c ( i ) ∣ ∣ 2 J(c^{(1)},...,c^{(m)},u_1,...,u_k) =\frac{1}{m}\sum_{i=1}^m{||X^{(i)} - u_c^{(i)}||^2} J(c(1),...,c(m),u1,...,uk)=m1i=1∑m∣∣X(i)−uc(i)∣∣2

其中 u c ( i ) u_c^{(i)} uc(i)代表与 x ( i ) x^{(i)} x(i)最近的聚类中心点。 我们的的优化目标便是找出使得代价函数最小的 c ( 1 ) , c ( 2 ) , . . . , c ( m ) c^{(1)},c^{(2)},...,c^{(m)} c(1),c(2),...,c(m)和 u 1 , u 2 , . . . , u k u_1,u_2,...,u_k u1,u2,...,uk:

回顾刚才给出的: K-均值迭代算法,我们知道,第一个循环是用于减小 c ( i ) c^{(i)} c(i)引起的代价,而第二个循环则是用于减小 u i u_i ui引起的代价。迭代的过程一定会是每一次迭代都在减小代价函数,不然便是出现了错误。

相关推荐
智算菩萨19 分钟前
从试错学习到安全进化:强化学习重塑自动驾驶决策与控制
人工智能·机器学习·自动驾驶
青云交1 小时前
Java 大视界 -- Java 大数据机器学习模型在自然语言处理中的对话系统多轮交互优化与用户体验提升
java·大数据·机器学习·自然语言处理·对话系统·多轮交互
_不会dp不改名_1 小时前
HCIP笔记8--中间系统到中间系统协议1
网络·笔记·hcip
ouliten1 小时前
《Linux C编程实战》笔记:socketpair
linux·笔记
伯明翰java1 小时前
Redis学习笔记-Set集合(2)
redis·笔记·学习
小李小李快乐不已1 小时前
图论理论基础(5)
数据结构·c++·算法·机器学习·动态规划·图论
jennychary11 小时前
网工学习笔记:loopback 和route id
网络·笔记·学习
民乐团扒谱机1 小时前
【微实验】大规模网络的社区检测Clauset–Newman–Moore聚类算法(附完整MATLAB代码)
算法·matlab·聚类·聚类算法·cnm·语义
YJlio1 小时前
Active Directory 工具学习笔记(10.2):AdExplorer 实战(二)— 对象 / 属性 / 搜索 / 快照
java·笔记·学习
摇滚侠1 小时前
ElasticSearch 教程入门到精通,条件分页排序查询,多条件范围查询,完全匹配高亮查询,聚合查询,映射关系,笔记13、14、15、16、17
大数据·笔记·elasticsearch