决策树剪枝、连续值、缺省值处理

1.决策树剪枝 首先剪枝(pruning)的目的是为了不决策树模型的过拟合。由于决策树算法在学习的过程当中为了尽量的正确的分类训练样本,不停地对结点进行划分,所以这会致使整棵树的分支过多,也就致使了过拟合。决策树的剪枝策略最基本的有两种:预剪枝(pre-pruning)和后剪枝(post-pruning):git 预剪枝(pre-pruning):预剪枝就是在构造决策树的过程当中,先对每一个结点在
相关文章
相关标签/搜索