支持向量机原理(二) 线性支持向量机的软间隔最大化模型

           支持向量机原理(一) 线性支持向量机html

    支持向量机原理(二) 线性支持向量机的软间隔最大化模型算法

    支持向量机原理(三)线性不可分支持向量机与核函数函数

    支持向量机原理(四)SMO算法原理post

    支持向量机原理(五)线性支持回归学习

   在支持向量机原理(一) 线性支持向量机中,咱们对线性可分SVM的模型和损失函数优化作了总结。最后咱们提到了有时候不能线性可分的缘由是线性数据集里面多了少许的异常点,因为这些异常点致使了数据集不能线性可分,本篇就对线性支持向量机如何处理这些异常点的原理方法作一个总结。优化

1. 线性分类SVM面临的问题

    有时候原本数据的确是可分的,也就是说能够用 线性分类SVM的学习方法来求解,可是却由于混入了异常点,致使不能线性可分,好比下图,原本数据是能够按下面的实线来作超平面分离的,能够因为一个橙色和一个蓝色的异常点致使咱们无法按照上一篇线性支持向量机中的方法来分类。url

    另一种状况没有这么糟糕到不可分,可是会严重影响咱们模型的泛化预测效果,好比下图,原本若是咱们不考虑异常点,SVM的超平面应该是下图中的红色线所示,可是因为有一个蓝色的异常点,致使咱们学习到的超平面是下图中的粗虚线所示,这样会严重影响咱们的分类模型预测效果。htm

    如何解决这些问题呢?SVM引入了软间隔最大化的方法来解决。blog

2. 线性分类SVM的软间隔最大化

    所谓的软间隔,是相对于硬间隔说的,咱们能够认为上一篇线性分类SVM的学习方法属于硬间隔最大化。get

    回顾下硬间隔最大化的条件:$$min\;\; \frac{1}{2}||w||_2^2  \;\; s.t \;\; y_i(w^Tx_i + b)  \geq 1 (i =1,2,...m)$$

    接着咱们再看如何能够软间隔最大化呢?

    SVM对训练集里面的每一个样本$(x_i,y_i)$引入了一个松弛变量$\xi_i \geq 0$,使函数间隔加上松弛变量大于等于1,也就是说:$$y_i(w\bullet x_i +b) \geq 1- \xi_i$$

    对比硬间隔最大化,能够看到咱们对样本到超平面的函数距离的要求放松了,以前是必定要大于等于1,如今只须要加上一个大于等于0的松弛变量能大于等于1就能够了。固然,松弛变量不能白加,这是有成本的,每个松弛变量$\xi_i$, 对应了一个代价$\xi_i$,这个就获得了咱们的软间隔最大化的SVM学习条件以下:$$min\;\; \frac{1}{2}||w||_2^2 +C\sum\limits_{i=1}^{m}\xi_i $$ $$ s.t.  \;\; y_i(w^Tx_i + b)  \geq 1 - \xi_i \;\;(i =1,2,...m)$$ $$\xi_i \geq 0 \;\;(i =1,2,...m)$$

    这里,$C>0$为惩罚参数,能够理解为咱们通常回归和分类问题正则化时候的参数。$C$越大,对误分类的惩罚越大,$C$越小,对误分类的惩罚越小。

    也就是说,咱们但愿$\frac{1}{2}||w||_2^2$尽可能小,误分类的点尽量的少。C是协调二者关系的正则化惩罚系数。在实际应用中,须要调参来选择。

    这个目标函数的优化和上一篇的线性可分SVM的优化方式相似,咱们下面就来看看怎么对线性分类SVM的软间隔最大化来进行学习优化。

3. 线性分类SVM的软间隔最大化目标函数的优化

    和线性可分SVM的优化方式相似,咱们首先将软间隔最大化的约束问题用拉格朗日函数转化为无约束问题以下:$$L(w,b,\xi,\alpha,\mu) = \frac{1}{2}||w||_2^2 +C\sum\limits_{i=1}^{m}\xi_i - \sum\limits_{i=1}^{m}\alpha_i[y_i(w^Tx_i + b) - 1 + \xi_i] - \sum\limits_{i=1}^{m}\mu_i\xi_i $$

    其中 $\mu_i \geq 0, \alpha_i \geq 0$,均为拉格朗日系数。

    也就是说,咱们如今要优化的目标函数是:$$\underbrace{min}_{w,b,\xi}\; \underbrace{max}_{\alpha_i \geq 0, \mu_i \geq 0,} L(w,b,\alpha, \xi,\mu)$$

    这个优化目标也知足KKT条件,也就是说,咱们能够经过拉格朗日对偶将咱们的优化问题转化为等价的对偶问题来求解以下:$$\underbrace{max}_{\alpha_i \geq 0, \mu_i \geq 0,} \; \underbrace{min}_{w,b,\xi}\; L(w,b,\alpha, \xi,\mu)$$

    咱们能够先求优化函数对于$w, b, \xi $的极小值, 接着再求拉格朗日乘子$\alpha$和 $\mu$的极大值。

    首先咱们来求优化函数对于$w, b, \xi $的极小值,这个能够经过求偏导数求得:$$\frac{\partial L}{\partial w} = 0 \;\Rightarrow w = \sum\limits_{i=1}^{m}\alpha_iy_ix_i $$ $$\frac{\partial L}{\partial b} = 0 \;\Rightarrow \sum\limits_{i=1}^{m}\alpha_iy_i = 0$$ $$\frac{\partial L}{\partial \xi} = 0 \;\Rightarrow C- \alpha_i - \mu_i = 0 $$

    好了,咱们能够利用上面的三个式子去消除$w$和$b$了。

$$ \begin{align} L(w,b,\xi,\alpha,\mu) & = \frac{1}{2}||w||_2^2 +C\sum\limits_{i=1}^{m}\xi_i - \sum\limits_{i=1}^{m}\alpha_i[y_i(w^Tx_i + b) - 1 + \xi_i] - \sum\limits_{i=1}^{m}\mu_i\xi_i  \\&= \frac{1}{2}||w||_2^2 - \sum\limits_{i=1}^{m}\alpha_i[y_i(w^Tx_i + b) - 1 + \xi_i] + \sum\limits_{i=1}^{m}\alpha_i\xi_i \\& = \frac{1}{2}||w||_2^2 - \sum\limits_{i=1}^{m}\alpha_i[y_i(w^Tx_i + b) - 1] \\& = \frac{1}{2}w^Tw-\sum\limits_{i=1}^{m}\alpha_iy_iw^Tx_i - \sum\limits_{i=1}^{m}\alpha_iy_ib + \sum\limits_{i=1}^{m}\alpha_i \\& = \frac{1}{2}w^T\sum\limits_{i=1}^{m}\alpha_iy_ix_i -\sum\limits_{i=1}^{m}\alpha_iy_iw^Tx_i - \sum\limits_{i=1}^{m}\alpha_iy_ib + \sum\limits_{i=1}^{m}\alpha_i \\& = \frac{1}{2}w^T\sum\limits_{i=1}^{m}\alpha_iy_ix_i - w^T\sum\limits_{i=1}^{m}\alpha_iy_ix_i - \sum\limits_{i=1}^{m}\alpha_iy_ib + \sum\limits_{i=1}^{m}\alpha_i \\& = - \frac{1}{2}w^T\sum\limits_{i=1}^{m}\alpha_iy_ix_i - \sum\limits_{i=1}^{m}\alpha_iy_ib + \sum\limits_{i=1}^{m}\alpha_i \\& = - \frac{1}{2}w^T\sum\limits_{i=1}^{m}\alpha_iy_ix_i - b\sum\limits_{i=1}^{m}\alpha_iy_i + \sum\limits_{i=1}^{m}\alpha_i \\& = -\frac{1}{2}(\sum\limits_{i=1}^{m}\alpha_iy_ix_i)^T(\sum\limits_{i=1}^{m}\alpha_iy_ix_i) - b\sum\limits_{i=1}^{m}\alpha_iy_i + \sum\limits_{i=1}^{m}\alpha_i \\& = -\frac{1}{2}\sum\limits_{i=1}^{m}\alpha_iy_ix_i^T\sum\limits_{i=1}^{m}\alpha_iy_ix_i - b\sum\limits_{i=1}^{m}\alpha_iy_i + \sum\limits_{i=1}^{m}\alpha_i \\& = -\frac{1}{2}\sum\limits_{i=1}^{m}\alpha_iy_ix_i^T\sum\limits_{i=1}^{m}\alpha_iy_ix_i + \sum\limits_{i=1}^{m}\alpha_i \\& = -\frac{1}{2}\sum\limits_{i=1,j=1}^{m}\alpha_iy_ix_i^T\alpha_jy_jx_j + \sum\limits_{i=1}^{m}\alpha_i \\& = \sum\limits_{i=1}^{m}\alpha_i - \frac{1}{2}\sum\limits_{i=1,j=1}^{m}\alpha_i\alpha_jy_iy_jx_i^Tx_j \end{align}$$

    其中,(1)式到(2)式用到了$C- \alpha_i - \mu_i = 0$, (2)式到(3)式合并了同类项,(3)式到(4)式用到了范数的定义$||w||_2^2 =w^Tw$, (4)式到(5)式用到了上面的$w = \sum\limits_{i=1}^{m}\alpha_iy_ix_i$, (5)式到(6)式把和样本无关的$w^T$提早,(6)式到(7)式合并了同类项,(7)式到(8)式把和样本无关的$b$提早,(8)式到(9)式继续用到$w = \sum\limits_{i=1}^{m}\alpha_iy_ix_i$,(9)式到(10)式用到了向量的转置。因为常量的转置是其自己,全部只有向量$x_i$被转置,(10)式到(11)式用到了上面的$\sum\limits_{i=1}^{m}\alpha_iy_i = 0$,(11)式到(12)式使用了$(a+b+c+…)(a+b+c+…)=aa+ab+ac+ba+bb+bc+…$的乘法运算法则,(12)式到(13)式仅仅是位置的调整。

    仔细观察能够发现,这个式子和咱们上一篇线性可分SVM的同样。惟一不同的是约束条件。如今咱们看看咱们的优化目标的数学形式:$$ \underbrace{ max }_{\alpha} \sum\limits_{i=1}^{m}\alpha_i - \frac{1}{2}\sum\limits_{i=1,j=1}^{m}\alpha_i\alpha_jy_iy_jx_i^Tx_j $$ $$ s.t. \; \sum\limits_{i=1}^{m}\alpha_iy_i = 0 $$ $$ C- \alpha_i - \mu_i = 0 $$ $$ \alpha_i \geq 0 \;(i =1,2,...,m)$$ $$ \mu_i \geq 0 \;(i =1,2,...,m)$$

     对于$ C- \alpha_i - \mu_i = 0 , \alpha_i \geq 0 ,\mu_i \geq 0 $这3个式子,咱们能够消去$\mu_i$,只留下$\alpha_i$,也就是说$0 \leq \alpha_i \leq C$。 同时将优化目标函数变号,求极小值,以下:$$ \underbrace{ min }_{\alpha}  \frac{1}{2}\sum\limits_{i=1,j=1}^{m}\alpha_i\alpha_jy_iy_jx_i^Tx_j - \sum\limits_{i=1}^{m}\alpha_i $$ $$ s.t. \; \sum\limits_{i=1}^{m}\alpha_iy_i = 0 $$ $$0 \leq \alpha_i \leq C$$

    这就是软间隔最大化时的线性可分SVM的优化目标形式,和上一篇的硬间隔最大化的线性可分SVM相比,咱们仅仅是多了一个约束条件$0 \leq \alpha_i \leq C$。咱们依然能够经过SMO算法来求上式极小化时对应的$\alpha$向量就能够求出$w和b$了。

4. 软间隔最大化时的支持向量

    在硬间隔最大化时,支持向量比较简单,就是知足$y_i(w^Tx_i + b) -1 =0$就能够了。根据KKT条件中的对偶互补条件$\alpha_{i}^{*}(y_i(w^Tx_i + b) - 1) = 0$,若是$\alpha_{i}^{*}>0$则有$y_i(w^Tx_i + b) =1$ 即点在支持向量上,不然若是$\alpha_{i}^{*}=0$则有$y_i(w^Tx_i + b) \geq 1$,即样本在支持向量上或者已经被正确分类。

    在软间隔最大化时,则稍微复杂一些,由于咱们对每一个样本$(x_i,y_i)$引入了松弛变量$\xi_i$。咱们从下图来研究软间隔最大化时支持向量的状况,第i个点到对应类别支持向量的距离为$\frac{\xi_i}{||w||_2}$。根据软间隔最大化时KKT条件中的对偶互补条件$\alpha_{i}^{*}(y_i(w^Tx_i + b) - 1 + \xi_i^{*}) = 0$咱们有:

    a) 若是$\alpha = 0$,那么$y_i(w^Tx_i + b) - 1 \geq 0$,即样本在间隔边界上或者已经被正确分类。如图中全部远离间隔边界的点。

    b) 若是$0 < \alpha < C$,那么$\xi_i = 0 ,\;\; y_i(w^Tx_i + b) - 1 =  0$,即点在间隔边界上。

    c) 若是$\alpha = C$,说明这是一个可能比较异常的点,须要检查此时$\xi_i$

      i)若是$0 \leq \xi_i \leq 1$,那么点被正确分类,可是却在超平面和本身类别的间隔边界之间。如图中的样本2和4.

      ii)若是$\xi_i =1$,那么点在分离超平面上,没法被正确分类。

      iii)若是$\xi_i > 1$,那么点在超平面的另外一侧,也就是说,这个点不能被正常分类。如图中的样本1和3.

     

5. 软间隔最大化的线性可分SVM的算法过程

    这里咱们对软间隔最大化时的线性可分SVM的算法过程作一个总结。

    输入是线性可分的m个样本${(x_1,y_1), (x_2,y_2), ..., (x_m,y_m),}$,其中x为n维特征向量。y为二元输出,值为1,或者-1.

    输出是分离超平面的参数$w^{*}和b^{*}$和分类决策函数。

    算法过程以下:

    1)选择一个惩罚系数$C>0$, 构造约束优化问题$$ \underbrace{ min }_{\alpha}  \frac{1}{2}\sum\limits_{i=1,j=1}^{m}\alpha_i\alpha_jy_iy_jx_i^Tx_j - \sum\limits_{i=1}^{m}\alpha_i $$ $$ s.t. \; \sum\limits_{i=1}^{m}\alpha_iy_i = 0 $$ $$0 \leq \alpha_i \leq C$$

    2)用SMO算法求出上式最小时对应的$\alpha$向量的值$\alpha^{*}$向量.

    3) 计算$w^{*} = \sum\limits_{i=1}^{m}\alpha_i^{*}y_ix_i$

    4) 找出全部的S个支持向量对应的样本$(x_s,y_s)$,经过 $y_s(\sum\limits_{i=1}^{m}\alpha_iy_ix_i^Tx_s+b) = 1$,计算出每一个支持向量$(x_x, y_s)$对应的$b_s^{*}$,计算出这些$b_s^{*} = y_s - \sum\limits_{i=1}^{m}\alpha_iy_ix_i^Tx_s$. 全部的$b_s^{*}$对应的平均值即为最终的$b^{*} = \frac{1}{S}\sum\limits_{i=1}^{S}b_s^{*}$

     这样最终的分类超平面为:$w^{*} \bullet x + b^{*} = 0 $,最终的分类决策函数为:$f(x) = sign(w^{*} \bullet x + b^{*})$

 

6. 合页损失函数

    线性支持向量机还有另一种解释以下:$$ \underbrace{ min}_{w, b}[1-y_i(w \bullet x + b)]_{+} + \lambda ||w||_2^2$$ 

    其中$L(y(w \bullet x + b)) = [1-y_i(w \bullet x + b)]_{+}$称为合页损失函数(hinge loss function),下标+表示为:

$$ [z]_{+}=
\begin{cases}
z & {z >0}\\
0& {z\leq 0}
\end{cases}$$  

    也就是说,若是点被正确分类,且函数间隔大于1,损失是0,不然损失是$1-y(w \bullet x + b)$,以下图中的绿线。咱们在下图还能够看出其余各类模型损失和函数间隔的关系:对于0-1损失函数,若是正确分类,损失是0,误分类损失1, 以下图黑线,可见0-1损失函数是不可导的。对于感知机模型,感知机的损失函数是$[-y_i(w \bullet x + b)]_{+}$,这样当样本被正确分类时,损失是0,误分类时,损失是$-y_i(w \bullet x + b)$,以下图紫线。对于逻辑回归之类和最大熵模型对应的对数损失,损失函数是$log[1+exp(-y(w \bullet x + b))]$, 以下图红线所示。

     线性可分SVM经过软间隔最大化,能够解决线性数据集带有异常点时的分类处理,可是现实生活中的确有不少数据不是线性可分的,这些线性不可分的数据也不是去掉异常点就能处理这么简单。那么SVM怎么能处理中这样的状况呢?咱们在下一篇就来讨论线性不可分SVM和核函数的原理。

 

(欢迎转载,转载请注明出处。欢迎沟通交流: liujianping-ok@163.com)