吴恩达《机器学习》12-2-12-3:大边界的直观理解、大边界分类背后的数学

一、大边界的直观理解

1. 大间距分类器的背景

支持向量机的大间距分类器着眼于构建一个能够在正负样本之间划定最大间距的决策边界。为了理解这一点,首先观察支持向量机的代价函数,其中涉及到正负样本的代价函数cos𝑡1(𝑧)和cos𝑡0(𝑧)。

对于正样本(𝑦 = 1),我们希望𝜃^𝑇𝑥的值大于等于 1,而对于负样本(𝑦 = 0),希望𝜃^𝑇𝑥的值小于等于 -1。这要求决策边界不仅能够正确分离样本,还需要具备足够的"安全间距"。

2. 支持向量机的大间距特性

支持向量机不仅仅追求正确分类样本,更强调在分类过程中保持最大的间距。这一点通过引入一个常数𝐶来体现,当𝐶取非常大的值时,最小化代价函数将迫使𝜃^𝑇𝑥的值趋近于零,即实现最大间距分类器。

3. 优化问题与决策边界

通过解决一个相应的优化问题,可以得到支持向量机的决策边界。当𝐶非常大时,最优解将使得代价函数的第一项为零,从而得到一个大间距分类器。这种分类器在分离正负样本时更为鲁棒,因为它努力最大化正负样本之间的距离。

4. 正则化参数𝐶的影响

正则化参数𝐶的选择在支持向量机中至关重要。当𝐶较大时,相当于正则化参数𝜆较小,可能导致过拟合;而当𝐶较小时,相当于正则化参数𝜆较大,可能导致欠拟合。这表明𝐶的取值影响模型的偏差和方差,需要在训练中进行平衡。

二、大边界分类背后的数学

  1. 向量内积: 假设有两个向量 𝑢 和 𝑣,它们的内积表示为 𝑢^𝑇𝑣。通过将向量投影到另一个向量上,可以计算投影的长度,即内积。

  2. 向量范数: 向量的范数表示其长度,通常使用欧几里得范数表示。对于二维向量 𝑢 = [𝑢1, 𝑢2],其范数为 ∥𝑢∥ = √(𝑢1^2 + 𝑢2^2)。

  3. 内积的计算: 内积 𝑢^𝑇𝑣 可以通过向量的点乘(𝑢1 × 𝑣1 + 𝑢2 × 𝑣2)或矩阵乘法 ([𝑢1 𝑢2] × [𝑣1, 𝑣2]) 计算。这两种方法得到的结果是相同的。

  4. 内积的性质: 内积具有交换性,即 𝑢^𝑇𝑣 = 𝑣^𝑇𝑢。此外,内积的结果是两个实数的乘积。

  5. 投影和内积的关系: 通过投影计算内积时,投影长度记为 𝑝,内积可以表示为 𝑢^𝑇𝑣 = 𝑝⬝∥𝑢∥。

  6. 符号和夹角: 投影的长度 𝑝 可能是正值或负值,取决于向量 𝑢 和 𝑣 之间的夹角。夹角大于 90 度时,投影为负值。

  7. 支持向量机目标函数: 支持向量机的目标函数是极小化参数向量 𝜃 的范数的平方,即最小化 1/2 ∥𝜃∥^2。

  8. 大间隔分类: 通过选择大间隔分类器,支持向量机追求最大化训练样本到决策边界的距离(间距),从而使参数向量的范数最小。

  9. 简化假设: 在推导中,作者简化了截距为零(𝜃0 = 0)和特征数为 2 的情况,使目标函数更容易分析。

  10. 决策边界选择: 选择大间隔分类器的决策边界可以使参数向量的范数最小,从而实现大间隔分类。

参考资料

[中英字幕]吴恩达机器学习系列课程

黄海广博士 - 吴恩达机器学习个人笔记

相关推荐
学编程的闹钟5 分钟前
95【给图片添加跳转链接】
学习
听麟12 分钟前
HarmonyOS 6.0+ PC端虚拟仿真训练系统开发实战:3D引擎集成与交互联动落地
笔记·深度学习·3d·华为·交互·harmonyos
DuHz16 分钟前
通过超宽带信号估计位置——论文精读
论文阅读·人工智能·机器学习·自动驾驶·汽车
Physicist in Geophy.18 分钟前
一维波动方程(从变分法角度)
线性代数·算法·机器学习
EnglishJun24 分钟前
Linux系统编程(二)---学习Linux系统函数
linux·运维·学习
im_AMBER24 分钟前
Leetcode 115 分割链表 | 随机链表的复制
数据结构·学习·算法·leetcode
一个人旅程~26 分钟前
我存在吗?你存在吗?
笔记·程序人生·电脑·ai写作
xqqxqxxq31 分钟前
Java IO 核心:BufferedReader/BufferedWriter & PrintStream/PrintWriter 技术笔记
java·笔记·php
硅谷秋水32 分钟前
REALM:用于机器人操作泛化能力的真实-仿真验证基准测试
人工智能·机器学习·计算机视觉·语言模型·机器人
啊阿狸不会拉杆40 分钟前
《机器学习导论》第 9 章-决策树
人工智能·python·算法·决策树·机器学习·数据挖掘·剪枝