集成学习之Adaboost算法原理小结

集成学习原理小结中,咱们讲到了集成学习按照个体学习器之间是否存在依赖关系能够分为两类,第一个是个体学习器之间存在强依赖关系,另外一类是个体学习器之间不存在强依赖关系。前者的表明算法就是是boosting系列算法。在boosting系列算法中, Adaboost是最著名的算法之一。Adaboost既能够用做分类,也能够用做回归。本文就对Adaboost算法作一个总结。html

1、回顾boosting算法的基本原理

    在集成学习原理小结中,咱们已经讲到了boosting算法系列的基本思想,以下图:算法

    从图中能够看出,Boosting算法的工做机制是首先从训练集用初始权重训练出一个弱学习器1,根据弱学习的学习偏差率表现来更新训练样本的权重,使得以前弱学习器1学习偏差率高的训练样本点的权重变高,使得这些偏差率高的点在后面的弱学习器2中获得更多的重视。而后基于调整权重后的训练集来训练弱学习器2.,如此重复进行,直到弱学习器数达到事先指定的数目T,最终将这T个弱学习器经过集合策略进行整合,获得最终的强学习器。  微信

    不过有几个具体的问题Boosting算法没有详细说明。网络

    1)如何计算学习偏差率e?框架

    2) 如何获得弱学习器权重系数\(\alpha\)?函数

    3)如何更新样本权重D?post

    4) 使用何种结合策略?学习

    只要是boosting你们族的算法,都要解决这4个问题。那么Adaboost是怎么解决的呢?优化

2、Adaboost算法的基本思路

    咱们这里讲解Adaboost是如何解决上一节这4个问题的。spa

    假设咱们的训练集样本是
\[ T=\{(x_,y_1),(x_2,y_2), ...(x_m,y_m)\} \]

    训练集的在第k个弱学习器的输出权重为
\[ D(k) = (w_{k1}, w_{k2}, ...w_{km}) ;\;\; w_{1i}=\frac{1}{m};\;\; i =1,2...m \]

 

    首先咱们看看Adaboost的分类问题。

    分类问题的偏差率很好理解和计算。因为多元分类是二元分类的推广,这里假设咱们是二元分类问题,输出为{-1,1},则第k个弱分类器\(G_k(x)\)在训练集上的加权偏差率为
\[ e_k = P(G_k(x_i) \neq y_i) = \sum\limits_{i=1}^{m}w_{ki}I(G_k(x_i) \neq y_i) \]

    接着咱们看弱学习器权重系数,对于二元分类问题,第k个弱分类器\(G_k(x)\)的权重系数为
\[ \alpha_k = \frac{1}{2}log\frac{1-e_k}{e_k} \]

    为何这样计算弱学习器权重系数?从上式能够看出,若是分类偏差率\(e_k\)越大,则对应的弱分类器权重系数\(\alpha_k\)越小。也就是说,偏差率小的弱分类器权重系数越大。具体为何采用这个权重系数公式,咱们在讲Adaboost的损失函数优化时再讲。

    第三个问题,更新更新样本权重D。假设第k个弱分类器的样本集权重系数为\(D(k) = (w_{k1}, w_{k2}, ...w_{km})\),则对应的第k+1个弱分类器的样本集权重系数为
\[ w_{k+1,i} = \frac{w_{ki}}{Z_K}exp(-\alpha_ky_iG_k(x_i)) \]

    这里\(Z_k\)是规范化因子
\[ Z_k = \sum\limits_{i=1}^{m}w_{ki}exp(-\alpha_ky_iG_k(x_i)) \]

    从\(w_{k+1,i}\)计算公式能够看出,若是第i个样本分类错误,则\(y_iG_k(x_i) <; 0\),致使样本的权重在第k+1个弱分类器中增大,若是分类正确,则权重在第k+1个弱分类器中减小.具体为何采用样本权重更新公式,咱们在讲Adaboost的损失函数优化时再讲。

    最后一个问题是集合策略。Adaboost分类采用的是加权表决法,最终的强分类器为
\[ f(x) = sign(\sum\limits_{k=1}^{K}\alpha_kG_k(x)) \]

    

    接着咱们看看Adaboost的回归问题。因为Adaboost的回归问题有不少变种,这里咱们以Adaboost R2算法为准。

    咱们先看看回归问题的偏差率的问题,对于第k个弱学习器,计算他在训练集上的最大偏差
\[ E_k= max|y_i - G_k(x_i)|\;i=1,2...m \]

    而后计算每一个样本的相对偏差
\[ e_{ki}= \frac{|y_i - G_k(x_i)|}{E_k} \]

    这里是偏差损失为线性时的状况,若是咱们用平方偏差,则\(e_{ki}= \frac{(y_i - G_k(x_i))^2}{E_k^2}\),若是咱们用的是指数偏差,则\(e_{ki}= 1 - exp(\frac{-y_i + G_k(x_i))}{E_k})\)

    最终获得第k个弱学习器的 偏差率
\[ e_k =  \sum\limits_{i=1}^{m}w_{ki}e_{ki} \]

    咱们再来看看如何获得弱学习器权重系数\(\alpha\)。这里有:
\[ \alpha_k =\frac{e_k}{1-e_k} \]

    对于更新更新样本权重D,第k+1个弱学习器的样本集权重系数为
\[ w_{k+1,i} = \frac{w_{ki}}{Z_k}\alpha_k^{1-e_{ki}} \]

    这里\(Z_k\)是规范化因子
\[ Z_k = \sum\limits_{i=1}^{m}w_{ki}\alpha_k^{1-e_{ki}} \]

    最后是结合策略,和分类问题稍有不一样,采用的是对加权的弱学习器取权重中位数对应的弱学习器做为强学习器的方法,最终的强回归器为
\[ f(x) =G_{k^*}(x) \]

    其中,\(G_{k^*}(x)\)是全部\(ln\frac{1}{\alpha_k}, k=1,2,....K\)的中位数值对应序号\(k^*\)对应的弱学习器。 

3、AdaBoost分类问题的损失函数优化

    刚才上一节咱们讲到了分类Adaboost的弱学习器权重系数公式和样本权重更新公式。可是没有解释选择这个公式的缘由,让人以为是魔法公式同样。其实它能够从Adaboost的损失函数推导出来。

    从另外一个角度讲, Adaboost是模型为加法模型,学习算法为前向分步学习算法,损失函数为指数函数的分类问题。

    模型为加法模型好理解,咱们的最终的强分类器是若干个弱分类器加权平均而获得的。

    前向分步学习算法也好理解,咱们的算法是经过一轮轮的弱学习器学习,利用前一个弱学习器的结果来更新后一个弱学习器的训练集权重。也就是说,第k-1轮的强学习器为
\[ f_{k-1}(x) = \sum\limits_{i=1}^{k-1}\alpha_iG_{i}(x) \]

    而第k轮的强学习器为
\[ f_{k}(x) = \sum\limits_{i=1}^{k}\alpha_iG_{i}(x) \]

    上两式一比较能够获得
\[ f_{k}(x) = f_{k-1}(x) + \alpha_kG_k(x)  \]

    可见强学习器的确是经过前向分步学习算法一步步而获得的。

    Adaboost损失函数为指数函数,即定义损失函数为
\[ \underbrace{arg\;min\;}_{\alpha, G} \sum\limits_{i=1}^{m}exp(-y_if_{k}(x)) \]

    利用前向分步学习算法的关系能够获得损失函数为
\[ (\alpha_k, G_k(x)) = \underbrace{arg\;min\;}_{\alpha, G}\sum\limits_{i=1}^{m}exp[(-y_i) (f_{k-1}(x) + \alpha G(x))] \]

    令\(w_{ki}^{’} = exp(-y_if_{k-1}(x))\), 它的值不依赖于\(\alpha, G\),所以与最小化无关,仅仅依赖于\(f_{k-1}(x)\),随着每一轮迭代而改变。

    将这个式子带入损失函数,损失函数转化为
\[ (\alpha_k, G_k(x)) = \underbrace{arg\;min\;}_{\alpha, G}\sum\limits_{i=1}^{m}w_{ki}^{’}exp[-y_i\alpha G(x)] \]
    

    首先,咱们求\(G_k(x)\).,能够获得
\[ G_k(x) = \underbrace{arg\;min\;}_{G}\sum\limits_{i=1}^{m}w_{ki}^{’}I(y_i \neq G(x_i)) \]

    将\(G_k(x)\)带入损失函数,并对\(\alpha\)求导,使其等于0,则就获得了
\[ \alpha_k = \frac{1}{2}log\frac{1-e_k}{e_k} \]

    其中,\(e_k\)即为咱们前面的分类偏差率。
\[ e_k = \frac{\sum\limits_{i=1}^{m}w_{ki}^{’}I(y_i \neq G(x_i))}{\sum\limits_{i=1}^{m}w_{ki}^{’}} = \sum\limits_{i=1}^{m}w_{ki}I(y_i \neq G(x_i)) \]

    最后看样本权重的更新。利用\(f_{k}(x) = f_{k-1}(x) + \alpha_kG_k(x) \)\(w_{ki}^{’} = exp(-y_if_{k-1}(x))\),便可得:
\[ w_{k+1,i}^{’} = w_{ki}^{’}exp[-y_i\alpha_kG_k(x)] \]

    这样就获得了咱们第二节的样本权重更新公式。

4、AdaBoost二元分类问题算法流程

    这里咱们对AdaBoost二元分类问题算法流程作一个总结。

    输入为样本集\(T=\{(x_,y_1),(x_2,y_2), ...(x_m,y_m)\}\),输出为{-1, +1},弱分类器算法, 弱分类器迭代次数K。

    输出为最终的强分类器\(f(x)\)

    1) 初始化样本集权重为
\[ D(1) = (w_{11}, w_{12}, ...w_{1m}) ;\;\; w_{1i}=\frac{1}{m};\;\; i =1,2...m \]

    2) 对于k=1,2,...K:

      a) 使用具备权重\(D_k\)的样本集来训练数据,获得弱分类器\(G_k(x)\)

      b)计算\(G_k(x)\)的分类偏差率
\[ e_k = P(G_k(x_i) \neq y_i) = \sum\limits_{i=1}^{m}w_{ki}I(G_k(x_i) \neq y_i) \]

      c) 计算弱分类器的系数
\[ \alpha_k = \frac{1}{2}log\frac{1-e_k}{e_k} \]

      d) 更新样本集的权重分布
\[ w_{k+1,i} = \frac{w_{ki}}{Z_K}exp(-\alpha_ky_iG_k(x_i)) \;\; i =1,2,...m \]

        这里\(Z_k\)是规范化因子
\[ Z_k = \sum\limits_{i=1}^{m}w_{ki}exp(-\alpha_ky_iG_k(x_i)) \]

    3) 构建最终分类器为:
\[ f(x) = sign(\sum\limits_{k=1}^{K}\alpha_kG_k(x)) \]
    

 

    对于Adaboost多元分类算法,其实原理和二元分类相似,最主要区别在弱分类器的系数上。好比Adaboost SAMME算法,它的弱分类器的系数
\[ \alpha_k = \frac{1}{2}log\frac{1-e_k}{e_k} + log(R-1) \]

    其中R为类别数。从上式能够看出,若是是二元分类,R=2,则上式和咱们的二元分类算法中的弱分类器的系数一致。

5、Adaboost回归问题的算法流程

    这里咱们对AdaBoost回归问题算法流程作一个总结。AdaBoost回归算法变种不少,下面的算法为Adaboost R2回归算法过程。

    输入为样本集\(T=\{(x_,y_1),(x_2,y_2), ...(x_m,y_m)\}\),,弱学习器算法, 弱学习器迭代次数K。

    输出为最终的强学习器\(f(x)\)

    1) 初始化样本集权重为
\[ D(1) = (w_{11}, w_{12}, ...w_{1m}) ;\;\; w_{1i}=\frac{1}{m};\;\; i =1,2...m \]

    2) 对于k=1,2,...K:

      a) 使用具备权重\(D_k\)的样本集来训练数据,获得弱学习器\(G_k(x)\)

      b) 计算训练集上的最大偏差
\[ E_k= max|y_i - G_k(x_i)|\;i=1,2...m \]

      c) 计算每一个样本的相对偏差:

        若是是线性偏差,则\(e_{ki}= \frac{|y_i - G_k(x_i)|}{E_k}\)

        若是是平方偏差,则\(e_{ki}= \frac{(y_i - G_k(x_i))^2}{E_k^2}\)

        若是是指数偏差,则\(e_{ki}= 1 - exp(\frac{-|y_i -G_k(x_i)|}{E_k})\)        

      d) 计算回归偏差率
\[ e_k =  \sum\limits_{i=1}^{m}w_{ki}e_{ki} \]

      c) 计算弱学习器的系数
\[ \alpha_k =\frac{e_k}{1-e_k} \]

      d) 更新样本集的权重分布为
\[ w_{k+1,i} = \frac{w_{ki}}{Z_k}\alpha_k^{1-e_{ki}} \]

        这里\(Z_k\)是规范化因子
\[ Z_k = \sum\limits_{i=1}^{m}w_{ki}\alpha_k^{1-e_{ki}} \]

    3) 构建最终强学习器为:
\[ f(x) =G_{k^*}(x) \]

    其中,\(G_{k^*}(x)\)是全部\(ln\frac{1}{\alpha_k}, k=1,2,....K\)的中位数值对应序号\(k^*\)对应的弱学习器。  

6、Adaboost算法的正则化

    为了防止Adaboost过拟合,咱们一般也会加入正则化项,这个正则化项咱们一般称为步长(learning rate)。定义为\(\nu\),对于前面的弱学习器的迭代
\[ f_{k}(x) = f_{k-1}(x) + \alpha_kG_k(x)  \]

    若是咱们加上了正则化项,则有
\[ f_{k}(x) = f_{k-1}(x) + \nu\alpha_kG_k(x)  \]

    \(\nu\)的取值范围为$0 <; \nu \leq 1 \(。对于一样的训练集学习效果,较小的\)\nu$意味着咱们须要更多的弱学习器的迭代次数。一般咱们用步长和迭代最大次数一块儿来决定算法的拟合效果。

7、Adaboost小结

    到这里Adaboost就写完了,前面有一个没有提到,就是弱学习器的类型。理论上任何学习器均可以用于Adaboost.但通常来讲,使用最普遍的Adaboost弱学习器是决策树和神经网络。对于决策树,Adaboost分类用了CART分类树,而Adaboost回归用了CART回归树。

    这里对Adaboost算法的优缺点作一个总结。

    Adaboost的主要优势有:

    1)Adaboost做为分类器时,分类精度很高

    2)在Adaboost的框架下,可使用各类回归分类模型来构建弱学习器,很是灵活。

    3)做为简单的二元分类器时,构造简单,结果可理解。

    4)不容易发生过拟合

    Adaboost的主要缺点有:

    1)对异常样本敏感,异常样本在迭代中可能会得到较高的权重,影响最终的强学习器的预测准确性。

 

(欢迎转载,转载请注明出处。欢迎沟通交流: 微信:nickchen121)

相关文章
相关标签/搜索