机器学习笔记3——集成学习(ensemble)

一般来说,Ensemble模型适合于过拟合的模型,包括bagging和boosting. 3.1 Bagging 其中Bagging是单独训练每个分类器,然后用平均或者投票的方法组合,boosting的方法则是分类器之前存在强依赖,前一个分类器预测的解构会影响后一个分类器。随机森林就是DT的bagging。 在相同的深度下,随机森林并不会比决策树好很多,但会让分类的结果更平滑 3.2 Boosti
相关文章
相关标签/搜索