决策树的理解

  1. 决策树的分类速度快算法

    决策树有个步骤:特征选择,决策树生成,和决策树的修剪。ide

  2. 特许选择:在于选取对训练数据具备分类能力的特征,这样能够提升决策树学习的效率。若是利用一个特征进行分类的结果与随机分类的结果没有很大差异,则称这个特征是没有分类能力的。经验上任掉这些的特征对决策树学习的精度影响。学习

  3. 一般特征选择的准则是信息增益,或信息增益比。递归

    在学习信息增益的时候,首先是要了解一个概念:熵(entropy)是表示随机变量不肯定的度量,ci

    信息越少,越是不肯定,熵也就会越大。熵的公式为H(x)=-sum(pi*logpi)(i=1,2....n)it

    熵的取值只依赖于x的分布,并非x越大,熵就越大,等。class

    信息增益 g(D,A)特征A对训练集D的信息增益==H(D)-H(D/A)之差。又称互信息。效率


信息增益存在必定的问题,每每偏向于选择取值较多的特征的问题变量

后人又提出信息增益比:  gr(D,A)=g(D,A)/Ha(D)意思就是A在特征D上的信息增益比上A的信息熵。im

ID3,C4.5算法的生成再也不这讲

决策树生成算法递归地产生决策树,直到不能继续下去为止。模型复杂,这样产生的树每每对训练数据的分类很正确,可是每每会出现过拟合现象,下降模型复杂度,就是对决策树进行剪枝。

CART回归树。

相关文章
相关标签/搜索