【机器学习】3. 欧式距离,曼哈顿距离,Minkowski距离,加权欧式距离

Euclidean - L2 norm L2范数

D ( A , B ) = ( a 1 − b 1 ) 2 + ( a 2 − b 2 ) 2 + . . . D(A,B) = \sqrt{(a_1-b_1)^2+(a_2-b_2)^2 + ...} D(A,B)=(a1−b1)2+(a2−b2)2+...

Manhattan

D ( A , B ) = ∣ a 1 − b 1 ∣ + ∣ a 2 − b 2 ∣ + . . . D(A,B) = \sqrt{|a_1-b_1|+|a_2-b_2| + ...} D(A,B)=∣a1−b1∣+∣a2−b2∣+...

Euclidean欧式距离 是直接距离, Manhattan不能走斜线,只能走直线,所以是绝对值的和。

由于 Manhattan distance可以看成是直角三角形的直角边,Euclidean distance可以看成是斜边,所以Manhattan distance >= Eculidean distance.

Minkowski distance

D ( A , B ) = ( ( a 1 − b 1 ) q + ( a 2 − b 2 ) q + . . . ) 1 / q D(A,B) = ((a_1-b_1)^q+(a_2-b_2)^q + ...)^{1/q} D(A,B)=((a1−b1)q+(a2−b2)q+...)1/q

Minkowski distance 是上面两种距离的变型。

Weighted Euclidean

D ( A , B ) = w 1 ( a 1 − b 1 ) 2 + w 2 ( a 2 − b 2 ) 2 + . . . D(A,B) = \sqrt {w_1(a_1-b_1)^2+w_2(a_2-b_2)^2 + ...} D(A,B)=w1(a1−b1)2+w2(a2−b2)2+...

Weighted Distance

权重对比,比如权重取:
1 d 2 \frac{1}{d^2} d21

为什么需要权重呢?这里举一个KNN的例子,在KNN中,我们将距离最近的几个数据中的众数作为最终结果。如果直接使用欧氏距离,会有一个弊端,如下图。

假设我们求黑点的预测值,K是3,1,2,3代表了最近的三个点。 根据我们肉眼判断,黑点应该属于蓝色更加合理,但是传统KNN判断最近的是2个红色,一个蓝色,会将这个黑点划分到红点中。

而权重很好的解决了这个问题,距离更近的权重越大。

例如,黑点到蓝点的距离是1,到两个红点的距离是3。

1/ 1^2 > 1/3^2 + 1/3^2

最后结果是这样的,由于1 > 2/9, 结果判断为蓝色。

相关推荐
SEO_juper7 分钟前
2026内容营销破局指南:告别流量内卷,以价值赢信任
人工智能·ai·数字营销·2026
初恋叫萱萱9 分钟前
数据即燃料:用 `cann-data-augmentation` 实现高效训练预处理
人工智能
一战成名99618 分钟前
CANN 仓库揭秘:昇腾 AI 算子开发的宝藏之地
人工智能
hnult25 分钟前
2026 在线培训考试系统选型指南:核心功能拆解与选型逻辑
人工智能·笔记·课程设计
A小码哥25 分钟前
AI 设计时代的到来:从 PS 到 Pencil,一个人如何顶替一个团队
人工智能
阔皮大师28 分钟前
INote轻量文本编辑器
java·javascript·python·c#
AIGCmitutu31 分钟前
PS 物体底部阴影怎么做?3 步做出自然逼真的投影效果
人工智能·电子商务·photoshop·ps·美工
小法师爱分享32 分钟前
StickyNotes,简单便签超实用
java·python
深蓝电商API32 分钟前
处理字体反爬:woff字体文件解析实战
爬虫·python
开源技术33 分钟前
Claude Opus 4.6 发布,100万上下文窗口,越贵越好用
人工智能·python