核方法

拉格朗日对偶(Lagrange duality)

对于凸优化问题来说,无约束的优化一般可以使用一阶导数为零求解。而对于有约束条件的凸优化来说,拉格朗日对偶理论是对凸的最优解的研究。

假设 f ( x ) , c i ( x ) , h j ( x ) 是定义在 R n 上的连续可微函数(),考虑约束最优化问题:

(1) min x R n f ( x ) (2) s . t . c i ( x ) 0 , i = 1 , 2 , , k (3) h j ( x ) = 0 , j = 1 , 2 , , k

拉格朗日乘子

引入一个人工构造的拉格朗日函数,广义拉格朗日函数(generalized Lagrange function):

L ( x , α , β ) = f ( x ) + i = 0 k α i c i ( x ) + j = 1 l β j h j ( x )

x = ( x ( 1 ) , x ( 2 ) , , x ( n ) ) R n , α i , β j 是拉格朗日乘子, 特别要求 α i 0 .

总结:通过拉格朗日的办法重新定义一个无约束问题这个无约束问题等价于原来的约束优化问题,从而将约束问题无约束化。

原问题与对偶问题

  • 原问题(The primal problem)

    min x [ max α , β : α i 0 L ( x , α , β ) ] c a l l t h i s θ P ( x ) = min x θ P ( x )

    在上述方程中,函数 θ P ( x ) 称为原目标,右端无约束极小化问题就原问题。假设原问题的最优值为: p = min x θ P ( x )

  • 对偶问题(The dual problem)
    把上面式子最大化和最小化切换一下,就可以得到:

    max α , β : α i 0 [ min x L ( x , α , β ) ] c a l l   t h i s   θ D ( α , β ) = max α , β : α i 0 θ D ( α , β )

    在上述方程中,函数 θ D ( x ) 称为对偶目标,右边就是有约束极大化问题即对偶问题。假设对偶问题的最优值为: d = max α , β : α i 0 θ D ( α , β )

原始问题与对偶问题的关系

若原始问题与对偶问题都有最优值,则:

(4) d = max α , β : α i 0 min x L ( x , α , β ) (5) min x max α , β : α i 0 L ( x , α , β ) = p

从上面能得出原始问题的最优值不小于对偶问题的最优值。但是我们要通过对偶问题来求解原始问题,就必须使得原始问题的最优值与对偶问题的最优值相等。上面简单来说就是:

x α , β 分别是原始问题和对偶问题的可行解,如果 d = p ,那么 x α , β 都是原始问题和对偶问题的最优解。

总结:显然原问题与对偶问题是不等价的,我们需要让他满足一些条件来达到等价。而满足 d = p ,即需要KKT条件。

KKT条件

对于原始问题和对偶问题,假设函数 f ( x ) c i ( x ) 是凸函数, h i ( x ) 是仿射函数(即由一阶多项式构成的函数, f ( x ) = A x + b , A 是矩阵, x , b 是向量;并且假设不等式约束 c i ( x ) 是严格可行的,即存在 x ,对所有 i c i ( x ) < 0 ,则 x α , β 分别是原始问题和对偶问题的最优解的充分必要条件是 x α , β 满足下面的 Karush-Kuhn-Tucker(KKT) 条件:

(6) 1.(Lagrangian stationarity)   x L ( x , α , β ) = 0 (7) 2.(Complementary slackness)   α i c i ( x ) = 0 , i = 1 , 2 , , k   a n d   h j ( x ) = 0 , j = 1 , 2 , , l (8) 3.(Primal feasibility)   c i ( x ) 0 , i = 1 , 2 , , k (9) 4.(Dual feasibility)    α i 0 , i = 1 , 2 , , k

关于KKT 条件的理解:第一个条件是由解析函数的知识,对于各个变量的偏导数为0。特别注意当 α i > 0 时,由KKT松弛互补条件可知: c i ( x ) = 0 。(推导SVM中使用)

总结:拉格朗日乘子法就是把原始的约束问题通过拉格朗日函数转化为无约束问题,如果原始问题求解棘手,在满足KKT的条件下用求解对偶问题来代替求解原始问题,使得问题求解更加容易。

从等式优化——>不等式优化——>KKT条件理解拉格朗日乘子法,参考链接如下:
约束优化方法之拉格朗日乘子法与KKT条件

SVM(Support Vector Machine)

支持向量机即 Support Vector Machine,简称 SVM 。其目的就是寻找到一个超平面使样本分成两类,并且间隔(如何推导出间隔点我)最大。

线性可分SVM的推导

我们求得的w就代表着我们需要寻找的超平面的系数。用数学语言表达就是一个凸二次规划问题(convex quadratic programming):

(10) max 1 w , (11) s . t . , y i ( w T x i + b ) 1 , i = 1 , , n

通过求解这个问题,我们就可以找到一个间隔最大的分类器 ,如下图所示,中间的红色线条是最优超平面 :
SVM
这个问题等价于(为了方便求解,加上平方,还有一个系数,显然这两个问题是等价的,因为我们关心的并不是最优情况下目标函数的具体数值):
(12) min 1 2 w 2 (13) s . t . , y i ( w T x i + b ) 1 , i = 1 , , n

提炼出线性可分情况下 SVM 的学习算法:
输入:线性可分数据集 { ( x i , y i ) } i = 1 N
1. 构造约束最优化问题:

min w , b 1 2 | | w | | 2 s . t .     y i ( w x i + b ) 1 ,     i = 1 , 2 , . . . , N

2. 求解得到 w , b ,分类超平面即为 w x + b = 0
3. 对于新的观测数据 x ,根据 f ( x ) = s i g n ( w x + b ) f ( x ) = s i g n ( w x + b ) 判断其类别 y 即可.

现在回到之前的优化目标,也即原始问题

(14) min 1 2 w 2 (15) s . t . , y i ( w T x i + b ) 1 , i = 1 , , n

这里就可以使用拉格朗日乘子法了:
L ( w , b , α ) = 1 2 w 2 i = 1 n α i ( y i ( w T x i + b ) 1 )

然后每对满足原始问题与对偶问题的解都满足 KKT 条件,即:
w L ( w , b , a ) = w i = 1 N a i y i x i = 0 b L ( w , b , a ) = i = 1 N a i y i = 0 a i ( y i ( w x + b ) 1 ) = 0 y i ( w x + b ) 1 0 a i 0 ,   i = 1 , 2 , . . . , N

这里至少存在一个 a j > 0 ,使得 y j ( w x j + b ) 1 = 0 ,这便是支持向量,然后根据 KKT 条件可得:
L ( w , b , a ) w = 0 w i = 1 N a i y i x i = 0 L ( w , b , a ) b = 0 i = 1 N a i y i = 0 w = i = 1 N a i y i x i b = y j i = 1 N a i y i ( x i x j )

将以上结果带入 L ( w , b , a ) 会有:
svm推导
现在的待优化函数 变为:
相关文章
相关标签/搜索