机器学习—决策树

决策树算法的两个阶段 决策树基本术语(根节点、叶子节点、内部节点) 信息熵概念和直观理解 信息熵和基尼系数 熵:纯度\不纯度;不确定性 熵是用来度量不确定性,当熵越大,概率说X=xi的不确定性越大,反之越小;在机器学期中分类中说,熵越大即这个类别的不确定性更大,反之越小 基尼不纯度表示一个随机选中的样本在子集中被分错的可能性。 基尼不纯度为这个样本被选中的概率乘以它被分错的概率。 当一个节点中所有
相关文章
相关标签/搜索