信息增益与决策树

决策树是一种判别式模型。在一颗分类决策树中,非叶子节点时决策规则,叶子节点是类别。当输入一个特征向量时,按照决策树上的规则从根节点向叶节点移动,最后根据叶节点的类别断定输入向量的类别。决策树也能够用来解决回归问题。html

创建一个决策树模型主要有三个步骤:特征选择决策树的生成决策树的剪枝。而特征选择时要用到信息增益这个概念。算法

特征选择:dom

对于一个随机变量X,它的熵能够表示为:机器学习


对于两个随机变量X、Y,在已知X的状况下,Y的条件熵为:函数


其中,学习


信息增益(IG)互信息(MI)的定义是:3d


也就是说在已知A的状况下随机变量D的不肯定性的减小程度,也就是在咱们知道A的状况下得到了多少信息。rest

若是D是数据类别的随机变量,而A是数据某个特征的随机变量,能够想见使得信息增益最大的特征是最好的特征。由于这个特征能够最大程度上减小咱们对类别的不肯定性。htm

因此在决策树模型中,使用信息增益来进行每一层的特征选择。blog

决策树的生成:

在特征选择的方案肯定以后,创建决策树的过程就很简单了:首先根节点是全部类别;选择使得信息增益最大的特征对根节点进行划分,生成若干个子节点;递归的进行上述过程。

在创建决策树的过程当中要设置终止条件,一个显而易见的终止条件是某个节点内的数据属于同一类,其余的如信息增益小于某个阈值等。当叶节点内的数据类别不一致时,使用该节点内类别的众数做为该叶节点的类别,这也是经验风险最小的结果。

决策树的剪枝:

若是决策树的层次很深、叶子节点不少的话,那么会对训练数据有很好的分类结果。试想一种极端的状况是每一个叶节点只有一个训练数据,那么该模型对训练数据的分类偏差是0。决策树的层次越高,或者决策树的叶节点越多,模型也就越复杂,越容易产生过拟合。跟其余的机器学习方法同样,这时须要进行正则化,也就是对决策树的模型复杂度进行惩罚。

设决策树T的叶节点个数是|T|,t是T的叶节点,该节点有Nt个样本,其中属于第k类的有Ntk个。Ht(T)为节点t上的经验熵(提到经验就是只跟训练数据有关),其计算方法跟上面熵的定义相同。
则决策树的学习损失函数定义为:


在公式的右半部,第一项表示模型对训练数据的偏差,第二项是模型的复杂度,a是二者之间的平衡因子。根据该损失函数就能够训练出结构风险最小的决策树了。

上面是最简单的决策树的建模过程,下面简单提一下随机森林的概念:节选自http://www.cnblogs.com/wentingtu/archive/2011/12/22/2297405.html

随机森林:

随机森林顾名思义,是用随机的方式创建一个森林,森林里面有不少的决策树组成,随机森林的每一棵决策树之间是没有关联的。在获得森林以后,当有一个新的输 入样本进入的时候,就让森林中的每一棵决策树分别进行一下判断,看看这个样本应该属于哪一类(对于分类算法),而后看看哪一类被选择最多,就预测这个样本 为那一类。


在创建每一棵决策树的过程当中,有两点须要注意 - 采样与彻底分裂。首先是两个随机采样的过程,random forest对输入的数据要进行行、列的采样。对于行采样,采用有放回的方式,也就是在采样获得的样本集合中,可能有重复的样本。假设输入样本为N个,那 么采样的样本也为N个。这样使得在训练的时候,每一棵树的输入样本都不是所有的样本,使得相对不容易出现over-fitting。而后进行列采样,从M 个feature中,选择m个(m << M)。以后就是对采样以后的数据使用彻底分裂的方式创建出决策树,这样决策树的某一个叶子节点要么是没法继续分裂的,要么里面的全部样本的都是指向的同一 个分类。通常不少的决策树算法都一个重要的步骤 - 剪枝,可是这里不这样干,因为以前的两个随机采样的过程保证了随机性,因此就算不剪枝,也不会出现over-fitting


按这种算法获得的随机森林中的每一棵都是很弱的,可是你们组合起来就很厉害了。我以为能够这样比喻随机森林算法:每一棵决策树就是一个精通于某一个窄领域 的专家(由于咱们从M个feature中选择m让每一棵决策树进行学习),这样在随机森林中就有了不少个精通不一样领域的专家,对一个新的问题(新的输入数 据),能够用不一样的角度去看待它,最终由各个专家,投票获得结果。


随机森林是一个最近比较火的算法,它有不少的优势:

1. 在数据集上表现良好; 2. 在当前的不少数据集上,相对其余算法有着很大的优点; 3. 它可以处理很高维度(feature不少)的数据,而且不用作特征选择; 4. 在训练完后,它可以给出哪些feature比较重要; 5. 在建立随机森林的时候,对generlization error使用的是无偏估计; 6. 训练速度快; 7. 在训练过程当中,可以检测到feature间的互相影响; 8. 容易作成并行化方法; 9. 实现比较简单。