集成学习:随机森林/GBDT/XGBoost (学习笔记一)

知识点: 随机森林 提升算法 GBDT(迭代决策树) Adaboost XGBoost Stacking 集成学习(Ensemble Learning) 集成学习的思想就是将若干个学习器(分类器&回归器)组合之后产生一个新学习器.弱分类器(weak learner)指那些分类准确率只稍微好于随机猜测的分类器(error<0.5); 集成算法的成功在于保证弱分类器的多样性(Diversity).而且
相关文章
相关标签/搜索