机器学习--支持向量机(SVM)

支持向量机(线性) S V M SVM SVM

引入

S V M SVM SVM 用于解决的问题也是 c l a s s i f i c a t i o n classification classification,这里 y ∈ { − 1 , 1 } y \in \{-1, 1\} y∈{−1,1}

比如说这样一个需要分类的训练数据:

我们可以有很多直线来分开这两坨东西,就像这样:

我们看到这三条线 l 1 , l 2 l_1, l_2 l1,l2 和 l 3 l_3 l3,我们显然可以看出来 l 1 l_1 l1 比 l 2 l_2 l2 和 l 3 l_3 l3 要更优秀,但是我们怎么定义这个所谓的 "优秀" 呢?

间隔 M a r g i n Margin Margin 和 最小化 ∣ w ∣ |w| ∣w∣

我们这样理解,考虑将 l l l 在样本空间中平移,直到这条直线第一次碰到两组东西数据时停止。这样我们能得到两根 "边界线"(图中绿色的线)。

我们发现,我们认为最优秀的线所形成的 "边界线" 的距离是最大的,我们把这个距离成为间隔 m a r g i n margin margin。于是在 S V M SVM SVM 的思想中,我们就是要找到 m a r g i n margin margin 最大的那条线。

我们把这些"平移过程中第一次碰到的向量 "称为支持向量

我们把这条线根据之前的习惯写成这样:

h ( x ) = w T x h(x) = w^Tx h(x)=wTx

然后我们考虑如何计算出 m a r g i n margin margin。首先对于一个支持向量 x ( i ) x^{(i)} x(i) 来说,它到直线的距离可以写成:

d = ∣ ∑ j = 0 n w j x j ( i ) ∣ ∑ j = 1 n w j 2 = ∣ w T x ( i ) ∣ ∣ w ∣ d = \frac{\bigg|\sum\limits_{j = 0}^n w_jx^{(i)}j \bigg|}{\sqrt{\sum\limits{j = 1}^n w_j^2}} = \frac{\bigg|w^Tx^{(i)}\bigg|}{|w|} d=j=1∑nwj2 j=0∑nwjxj(i) =∣w∣ wTx(i)

然后又因为我们知道, h ( x ) = w T x h(x) = w^Tx h(x)=wTx 和 h ( x ) = ( a w ) T x h(x) = (aw)^Tx h(x)=(aw)Tx 本质上表示的是同一条直线(其中 a a a 是常数)。所以我们可以用 a a a 来放缩直线 h ( x ) h(x) h(x),使得 ∣ ( a w ) T x ( i ) ∣ = 1 |(aw)^Tx^{(i)}| = 1 ∣(aw)Tx(i)∣=1。

此时,支持向量 x ( i ) x^{(i)} x(i) 到直线的距离就是:

d = 1 ∣ w ∣ d = \frac1{|w|} d=∣w∣1

我们希望 d d d 最大,那么我们就希望 ∣ w ∣ |w| ∣w∣ 最小了。

但是这只是对于支持向量来说,那么对于其他向量来说又要满足什么要求呢?

限制条件

对于其他非支持向量 x ( j ) x^{(j)} x(j) 来说, x ( j ) x^{(j)} x(j) 到直线的距离显然是大于支持向量 x ( i ) x^{(i)} x(i) 的,所以我们有:

d x ( j ) = ∣ w T x ( j ) ∣ ∣ w ∣ > d x ( i ) = 1 ∣ w ∣ d_{x^{(j)}} = \frac{\bigg|w^Tx^{(j)}\bigg|}{|w|} > d_{x^{(i)}} = \frac 1{|w|} dx(j)=∣w∣ wTx(j) >dx(i)=∣w∣1

于是我们有:

∣ w T x ( j ) ∣ > 1 \bigg|w^Tx^{(j)}\bigg| > 1 wTx(j) >1

那么对于所有向量来说:

∣ w T x ∣ ≥ 1 \bigg|w^Tx\bigg| \ge 1 wTx ≥1

如果把绝对值去掉的话,我们就要分是 y y y 属于 1 1 1 类还是 − 1 -1 −1 类了。而经过分类讨论我们会发现,对于所有向量 x x x,我们都有:

y ( i ) [ w T x ( i ) ] ≥ 1                ( i = 1 ∼ m ) y^{(i)}[w^Tx^{(i)}] \ge 1 \;\;\;\;\;\;\;(i = 1 \sim m) y(i)[wTx(i)]≥1(i=1∼m)

总结

于是我们可以得到支持向量机想要我们做的事就是这样的:

min ⁡ w 1 2 ∣ w ∣ s . t .      y ( i ) [ w T x ( i ) ] ≥ 1 \begin{aligned} \min\limits_{w} \frac 12 &|w| \\ &s.t. \; \;y^{(i)}[w^Tx^{(i)}] \ge 1 \end{aligned} wmin21∣w∣s.t.y(i)[wTx(i)]≥1

相关推荐
IT枫斗者6 分钟前
集合工具类
java·linux·数据库·windows·算法·microsoft
朱皮皮呀12 分钟前
排序算法-归并排序
数据结构·算法·排序算法·归并排序
MogulNemenis13 分钟前
力扣100题——贪心算法
算法·leetcode·贪心算法
aWty_15 分钟前
机器学习--线性回归
python·算法·机器学习·线性回归
魔力之心15 分钟前
人工智能与机器学习原理精解【20】
人工智能·机器学习
我搞slam29 分钟前
Cartographer源码理解
算法·slam·cartographer
肥猪猪爸1 小时前
“xi” 和 “dbscan” 在OPTICS聚类中是什么意思
python·机器学习·支持向量机·聚类
SEU-WYL3 小时前
基于深度学习的因果发现算法
人工智能·深度学习·算法
Rivieres3 小时前
算法入门-贪心1
java·算法·leetcode·推荐算法
Tunny_yyy4 小时前
李宏毅2023机器学习HW15-Few-shot Classification
人工智能·机器学习