为何adaboost算法中每次放大权重都会使分类错误样本权重的累加达到0.5?

在看adaboost算法示例的时候突然发现一个有趣的现象,每次更新完样本权值之后,分类错误的样本的权值累加都会更新到0.5.我想着可能是因为如果分类错误率为0.5,对于二分类问题来说就相当于随便猜猜了,而这里采用的弱学习器再怎么样也比随便猜猜强吧!于是学习器的性能就得到了提升.但是它是怎么做到的呢? 对分类错误的样本的权重做累加:
相关文章
相关标签/搜索