决策树:是基于树结构的一种机器学习方法。其训练方法决定了它是一种有监督学习方法,且和KNN同样是一种非参数化模型。且当类数较多时,该方法具备必定的优点[1]。最流行的决策树是将空间拆分红超矩形,超矩形的边与轴平行。经常使用的算法有:CHAID、 CART、ID三、C4.五、 Quest 和C5.0(后续慢慢更新)。
ps:参数化模型,有着固定数量的参数,一般在预测阶段速度很快,而缺点就是对数据分布有着先验假设;非参数化模型,其参数会随着训练集的增大而增长,因此相对更加灵活,但是对于大数据集来讲,其计算效率相对低下。算法
树结构主要都是由根节点,内部节点,叶节点组成。根节点:做为树的入口,也做为第一个判别特征点;内部节点:在当获得其父节点的时候,父节点须要接着划分,且自身还须要进一步划分;叶节点,基于父节点划分基础上,分到当前结点的样本无需进一步划分,且叶节点所表示的标签为当前叶节点包含的样本中标签最多的那个标签。
一般会有四种状况:
1)这是一棵空树;
2)这是一棵只有根节点的树;
3)这是一棵只有根节点,叶子节点的树;
4)这是一棵具备根节点、内部节点、叶子节点的完整树。
状况1):此时对应的是训练数据集为空,或者未开始训练;
状况2):此时训练集都被归为同一个类别,好比训练集自己就是只有一种类别的时候;
状况3):只通过了一次特征判别就完成树的训练,或者在训练后,通过“后剪枝”操做后获得的决策树;
状况4):通过完整的训练,且“后剪枝”没有彻底剪完,成为状况3,大部分都是属于状况4.机器学习
其学习过程分红三个部分:判别特征的选取,树的生成,减枝。
判别特征的选取:即决策树的根节点和内部节点所表示的含义。这里一般有三种选取方式:ID3的信息增益、C4.5的启发式增益率、CART的基尼系数。
树的生成:即决策树的训练阶段,此时若是引入了“预剪枝”,那么就是边训练边剪枝;
剪枝:分“预剪枝”和“后剪枝”。"预剪枝"就是在树训练阶段,在判断特征选取的时候,预先计算当该判断节点生成前与生成后,整棵树的泛化能力是否有提高,若是有,该判断节点会生成。若是没有,当前节点就是叶子节点;“后剪枝”就是在树训练完成以后,对整棵树自底向上的进行剪枝,判别标准也是剪枝先后,整棵树的泛化能力是否有提高。学习
决策树发展中三大算法:ID3(1986)、C4.5(1993)、CART(1984)。首先他们在判别特征的选取规则上就有不一样,不过也有类似之处。判别特征的选取,也就是根节点或者当前内部节点的生成,主要就是但愿从根节点到当前节点这条路径选取的样本可以尽量的类似,如但愿可以正确把类别为1的样本,且类似的样本可以分到一块儿,一般也叫作纯度。
为了使得树的生长更有意义,每一个分支必须产生比父节点子集更“类均匀”的子集。也就是每一个子节点表示的样本集合都更好的属于特定的类,例如,一个四类问题,假设子集\(X_t\)中的向量等几率的在类中分布。对节点进行划分,使得属于类\(w^1\)和\(w^2\)的点构成一个子集,而类\(w^3\)和\(w^4\)的点构成另外一个子集,那么新子集与原子集\(X_t\)相比来讲更均匀,或者说更"纯"。因此目的是定义一种量度标准,用于量化节点的不纯度,并将节点分支,从而使得子节点的不纯度比父节点的不纯度减小。常见的节点不纯度就是信息熵。这来源于香农信息论。不难证实,若是全部的几率都相等,那么信息熵值最大,若是全部类都属于同一类,那么信息熵的计算值为0。因此决策树的生成,能够当作是不断地减小数据集不纯度的过程。大数据
首先,是引入信息熵的概念,且\(Ent(D)\)的值越小,则其纯度越高:
\[Ent(D) = -\sum_{k=1}^{|y|} p_klog_2p_k\tag{2.1}\]
\(|y|\)表示样本的总类,若是\(|y|=2\)那么这就是个二分类数据集;\(p_k\)表示第\(k\)类样本在全部样本中占的比例为。且\(Ent(D)\)表示的就是所要划分的节点的信息熵,而接下来就是须要肯定以哪一个特征做为下一个判别特征从而划分该节点。假定当前可选的特征集合为\(F\),其第\(i\)个特征为\(F_i\)。假定当前考虑的特征\(F_i\)一共有\(V\)种状况,那么若是以当前特征做为判别特征,则会从当前须要划分的节点上生成\(V\)条链接,那么这\(V\)条链接中,第\(v\)个链接上的样本个数,假定为\(|D^v|\),那么第\(v\)个链接上的权重几率即为\(\frac{|D^v|}{|D|}\),能够看出,权重越大,则当前链接划分的样本就越多。从而,计算出若是使用当前特征做为判别特征,那么其信息增益为:
\[Gain(D,F_i) = Ent(D)-\sum_{v=1}^V\frac{|D^v|}{|D|}Ent(D^v) \tag{2.2}\]
一般来讲,信息增益越大,意味着使用判别特征\(F_i\)进行划分所得到的“纯度”越大。因此选择信息增益最大的。spa
这里拿周老师西瓜书上的例子来讲明(离散特征):
3d
咱们获取的“样本x特征”矩阵,其值呈现的都是肯定值。所谓离散特征,就是当前特征的取值有限,且常常重复出现;而连续值,就是具备多个取值,基本上都看不到重复那种,能够认为是连续的。如2.1.1是处理当特征为离散时候的状况,而不少时候,咱们获得的特征是连续值。以西瓜书的表4.3做为例子。
blog
ps:假如选取了密度为当前的判别特征,则其左边子树是密度小于0.381的样本,右子树是大于0.381的点。由于该特征是连续值,故而不会被剔除下一层的判别特征的候选集合,由于对于小于0.381的样本集合(即左子树)来讲,其仍是能够从范围\([min,0.381)\)接着进一步选取下一层的最佳划分点,而后将其离散化。排序
由于2.1的信息增益方法对于当该特征的取值较多时候,会有所误差,好比一个特征只有2个取值,一个特征却能取3个值,这时候信息增益方法会稍微倾向于选择能取3个值得特征做为判别特征。为了解决这种特征取值个数带来的问题,C4.5选择使用信息增益率的方式做为判别特征的选取规则。
增益率公式为:
\[Gain\_ratio(D,F_i) = \frac{Gain(D,F_i)}{IV(F_i)} \tag{2.6}\]
这里\(IV(F_i)\)就是该特征的“固有值”,其可取值的数量越多(\(V\)越大),则\(IV(F_i)\)一般越大。其计算公式为:
\[IV(F_i) = -\sum_{v=1}^V\frac{|D^v|}{|D|}log_2\frac{|D^v|}{|D|} \tag{2.7}\]
如图2.1所示的数据集:
\[IV(触感,V=2) =-(\frac{5}{17}log_2\frac{5}{17}+\frac{12}{17}log_2\frac{12}{17}) = 0.874\]
\[IV(色泽,V=3) = 1.580\]
\[IV(编号,V=17) = 4.088\]
能够发现,计算公式和计算信息增益是同样的,只是信息增益是基于样本标签,而这里是计算该特征的几个不一样的取值。增益率规则对可取值数目较少有偏好,因此C4.5采用了启发式增益率,即先从当前候选特征集合中找到信息增益高于平均水平的特征,组成新候选特征集合,而后再计算这个新候选特征集合中增益率高的那个。至关于设定一个自适应阈值,将大于该阈值的特征留下,而后取留下特征中增益率高的特征。io
在CART算法中,采起的是基尼系数的方式来衡量判别特征。
数据集D的纯度可用基尼值来度量:
\[\begin{eqnarray}Gini(D) &=& \sum_{k=1}^{|y|} \sum_{k^` \neq k}p_kp_{k^`}\\ &=& 1 - \sum_{k=1}^{|y|}p_k^2 \end{eqnarray}\]
直观来讲,\(Gini(D)\)反映了从数据集D中随机抽取两个样本,其类别标记不一致的几率,因此一样也是,其值越小,数据集D的纯度越高。
候选判别特征\(F_i\)的基尼指数定义为:
\[Gini\_index(D,F_i) = \sum_{v=1}^V\frac{|D^v|}{|D|}Gini(D^v)\]
因此在候选特征集合中选择使得划分后基尼指数最小的熟悉做为最优划分属性,即\(argmin_{F_i\in F}Gini\_index(D,F_i)\)class
2017/03/17 第一次修改! 参考资料: [1] 模式识别 第4版.(希腊)西奥多里蒂斯 [2] 周志华,机器学习 [3]