决策树的分类速度快算法
决策树有个步骤:特征选择,决策树生成,和决策树的修剪。ide
特许选择:在于选取对训练数据具备分类能力的特征,这样能够提升决策树学习的效率。若是利用一个特征进行分类的结果与随机分类的结果没有很大差异,则称这个特征是没有分类能力的。经验上任掉这些的特征对决策树学习的精度影响。学习
一般特征选择的准则是信息增益,或信息增益比。递归
在学习信息增益的时候,首先是要了解一个概念:熵(entropy)是表示随机变量不肯定的度量,ci
信息越少,越是不肯定,熵也就会越大。熵的公式为H(x)=-sum(pi*logpi)(i=1,2....n)it
熵的取值只依赖于x的分布,并非x越大,熵就越大,等。class
信息增益 g(D,A)特征A对训练集D的信息增益==H(D)-H(D/A)之差。又称互信息。效率
信息增益存在必定的问题,每每偏向于选择取值较多的特征的问题变量
后人又提出信息增益比: gr(D,A)=g(D,A)/Ha(D)意思就是A在特征D上的信息增益比上A的信息熵。im
ID3,C4.5算法的生成再也不这讲
决策树生成算法递归地产生决策树,直到不能继续下去为止。模型复杂,这样产生的树每每对训练数据的分类很正确,可是每每会出现过拟合现象,下降模型复杂度,就是对决策树进行剪枝。
CART回归树。