Adaboost理解笔记

上回我们讲到boost以及GBDT,这次我们来讲Adaboost的原理 我们之所以要进行集成学习是因为单个模型的预测效果可能不好,要想达到强分类器的效果我们就需要结合多个弱分类器。 先看一个例子在讲原理。 更具两个相邻的x的中值来选取阈值,如0.5,1.5,2.5。同时对每一个阈值要计算出准确率,也就是有多少正类,多少负类。初始化所有的权重都为0.1。 比如我们选取0.5为当前阈值。那么正类全对,
相关文章
相关标签/搜索