集成学习基本原理:Adaboost,Bagging和Stacking

集成学习的基本原理是,训练多个“个体学习器”或者叫基分类器,基学习器。然后用某种策略将它们结合起来,最后可以产生比单一学习器优越得多的性能。 集成学习的基本原理是什么呢?假设对于每个基分类器,错误率有: P(hi(x)≠f(x))=ϵ 并且 假设分类器之间之互相独立的,那么最终的错误率为: P(H(x)≠f(x))≤exp(−12T(1−2ϵ)2) 可以看到当错误率 ϵ>0.5 随着个体分类器数目
相关文章
相关标签/搜索