为什么adaboost算法中每次放大权重都会使分类错误样本权重的累加达到0.5?

在看adaboost算法示例的时候忽然发现一个有趣的现象,每次更新完样本权值以后,分类错误的样本的权值累加都会更新到0.5.我想着多是由于若是分类错误率为0.5,对于二分类问题来讲就至关于随便猜猜了,而这里采用的弱学习器再怎么样也比随便猜猜强吧!因而学习器的性能就获得了提高.可是它是怎么作到的呢?算法 对分类错误的样本的权重作累加:性能
相关文章
相关标签/搜索