集成学习:通过数学推导AdaBoost的训练误差可以无限接近于0,以及其树的权重可以推导出来

集成学习,将多个独立分类器(此处称为基学习器)组合在一起,共同完成任务。如bagging(减小方差)、boosting(偏差)或stacking(改进预测) 其中Boosting,主要算法有AdaBoost/GBDT/Xgboost/LightGBM 关于Boosting的两个核心问题:   1)在每一轮如何改变训练数据的权值或概率分布?   通过提高那些在前一轮被弱分类器分错样例的权值,减小前一
相关文章
相关标签/搜索