集成学习、Bagging、随机森林、Boosting和Stacking方法的对比详述

1、集成学习(Ensemble Learning) (1)集成学习概述 集成学习的思想是将若干个学习器(分类器和回归器)组合之后产生一个新学习器。弱分类器(weak learner)指那些分类准确率只稍微好于随机猜测的分类器(error rate < 0.5)。 集成算法的成功在于保证弱分类器的多样性(Diversity),而且集成不稳定的算法也能够得到一个比较明显的性能提升。 常见的集成学习思想
相关文章
相关标签/搜索