集成学习整理:Boosting & Bagging

一、集成学习 将若干弱分类器组合生成一个强分类器;弱分类器:指分类准确率只稍好于随机猜测的分类器(错误率<50%); 分为两大流派:bagging和boosting; 核心:如何实现数据多样性,从而实现弱分类器的多样性; 特点: (1)将多个分类方法聚集在一起,以提高分类的准确率(这些算法可以是不同的算法,也可以是相同的算法。); (2)集成学习法由训练数据构建一组基分类器,然后通过对每个基分类器
相关文章
相关标签/搜索