机器学习(八)——决策树

Ø  根据各个维度的特性(信息增益、信息增益率、基尼系数)来确定决策树分枝的节点; 分枝的原则为保证组内方差最小、组间方差最大,即数据分类后的纯度最高; 叶子节点达到预定的阈值时即结束细分; Ø  分枝的方式有两类:先剪枝(去除掉数值小于某个阈值的叶子节点)、后剪枝(计算叶子节点的分类错误率,当节点数据的错误率大于阈值节点时则剪掉这个节点) 决策树分为决策树与回归树两种,主要针对离散数据和连续数据
相关文章
相关标签/搜索