神经网络章节感知机部分 空间中任意一点到线性分割超平面的距离公式 解释说明

公式 8-3 的内容如下:
1 ∣ ∣ w ∣ ∣ ∣ w ⋅ x 0 + b ∣ \frac{1}{||w||} |w \cdot x_0 + b| ∣∣w∣∣1∣w⋅x0+b∣

公式 8-3 的详细解释:

这个公式表示某个点 x 0 x_0 x0 到一个超平面的距离,其中:

  • w w w 是感知机的权重向量。
  • b b b 是感知机的偏置项(或阈值)。
  • x 0 x_0 x0 是你要计算到超平面距离的点。
  • ∣ ∣ w ∣ ∣ ||w|| ∣∣w∣∣ 表示权重向量 w w w 的 L2 范数,即 w w w 的长度(欧几里得长度)。
  • w ⋅ x 0 w \cdot x_0 w⋅x0 表示向量 w w w 和点 x 0 x_0 x0 的点积。

公式的形式是通过点积 w ⋅ x 0 + b w \cdot x_0 + b w⋅x0+b 表示 x 0 x_0 x0 点相对于超平面的位置,然后通过除以权重向量 w w w 的 L2 范数来标准化,这样得到的就是该点到超平面的垂直距离

解释步骤:

  1. w ⋅ x 0 + b w \cdot x_0 + b w⋅x0+b

    • 这个表达式表示 x 0 x_0 x0 代入超平面方程 w ⋅ x + b = 0 w \cdot x + b = 0 w⋅x+b=0 后的值。它可以看作 x 0 x_0 x0 点相对于超平面的"签名距离"(带正负符号的距离)。如果结果为正,则点 x 0 x_0 x0 在超平面的一侧;如果为负,则在另一侧;如果为零,则点 x 0 x_0 x0 刚好位于超平面上。
  2. ∣ ∣ w ∣ ∣ ||w|| ∣∣w∣∣

    • ∣ ∣ w ∣ ∣ ||w|| ∣∣w∣∣ 是权重向量 w w w 的 L2 范数,即权重向量的欧几里得长度。它用于将点积结果进行标准化,使得我们得到的距离是点到超平面的垂直距离,而不是简单的点积结果。
  3. 1 ∣ ∣ w ∣ ∣ \frac{1}{||w||} ∣∣w∣∣1

    • 通过将点积结果除以 ∣ ∣ w ∣ ∣ ||w|| ∣∣w∣∣,我们消除了方向的影响,得到的是点 x 0 x_0 x0 到超平面的最短距离 ,而不是简单的欧几里得距离。这确保了无论 w w w 向量的大小如何,计算出的距离都能正确反映点到超平面的真实距离。
  4. ∣ w ⋅ x 0 + b ∣ |w \cdot x_0 + b| ∣w⋅x0+b∣

    • 绝对值符号消除了结果的正负号,使我们关心的只是距离的大小,而不是点位于超平面的哪一侧。

几何解释:

超平面可以看作是 n 维空间中的一个 ( n − 1 ) (n-1) (n−1) 维的分隔线或分隔面。公式 8-3 表示从点 x 0 x_0 x0 垂直到超平面的距离。这个公式给出的距离是经过标准化的,因此它独立于权重 w w w 的规模。

总结:

公式 8-3 给出了任意输入点 x 0 x_0 x0 到由权重向量 w w w 和偏置 b b b 所定义的超平面的垂直距离。这在感知机学习中很重要,因为我们希望通过调整权重和偏置,将误分类样本的距离缩短,从而将它们正确分类到超平面的一侧。

相关推荐
墩墩冰7 小时前
计算机图形学 实现直线段的反走样
人工智能·机器学习
Pyeako7 小时前
深度学习--卷积神经网络(下)
人工智能·python·深度学习·卷积神经网络·数据增强·保存最优模型·数据预处理dataset
OPEN-Source7 小时前
大模型实战:搭建一张“看得懂”的大模型应用可观测看板
人工智能·python·langchain·rag·deepseek
B站_计算机毕业设计之家7 小时前
豆瓣电影数据可视化分析系统 | Python Flask框架 requests Echarts 大数据 人工智能 毕业设计源码(建议收藏)✅
大数据·python·机器学习·数据挖掘·flask·毕业设计·echarts
zzz的学习笔记本7 小时前
AI智能体时代的记忆 笔记(由大模型生成)
人工智能·智能体
AGI-四顾7 小时前
文生图模型选型速览
人工智能·ai
大尚来也7 小时前
一篇搞懂AI通识:用大白话讲清人工智能的核心逻辑
人工智能
Coder_Boy_7 小时前
Deeplearning4j+ Spring Boot 电商用户复购预测案例
java·人工智能·spring boot·后端·spring
风指引着方向7 小时前
动态形状算子支持:CANN ops-nn 的灵活推理方案
人工智能·深度学习·神经网络
weixin_395448917 小时前
cursor日志
人工智能·python·机器学习