Bagging_AdaBoost提升方法

提升算法的基本思路 在概率近似正确的学习框架中 一个对象,如果存在一个多项式学习算法能够学习,且准确率很高,那么它是强可学习的。 如果是准确率比随即猜测略好,那么它是弱可学习的。 一个对象是强可学习的充要条件是该对象是弱可学习的。 弱可学习算法通常比强可学习的算法容易获得。所以提升方法就是从弱学习算法出发,得道许多弱分类器,组合弱分类器,形成一个强分类器。(三个臭皮匠顶个诸葛亮。) Bagging
相关文章
相关标签/搜索