集成学习---(Boosting) Adaboost

  一、简介 1、 AdaBoost就是损失函数为指数损失的Boosting算法(当然这是后话,意思是指数损失的前向分步算法和Adaboost一致) 二、细节 1、算法流程 2、最重要的两点 误差率:==(也就是在一轮过后,误差率直接用分错样本的权重想加就可以了)   (1)、弱分类器的权重如何确定 权重仅仅由该分类器的分类误差率e决定,e的范围应该是[0, 0.5] ,所以误差率越大,权重越小
相关文章
相关标签/搜索