集成学习(boosting/bagging/stracking/Adaboost/GBDT/xgboost/RF)

Boosting         迭代提升,串行。基于弱分类器分错的样本,改变样本的概率分布构成新训练集,训练一个更强的学习器。迭代得到的一系列弱分类器,根据合并弱的学习模型来创造一个强大的学习模型。但是,只有当各模型之间没有相关性的时候组合起来后才比较强大。 (1)adaboost         不改变训练数据,迭代时提升错分样本权重,减少正确分类样本权重,最后通过加权线性组合M个弱分类器得到
相关文章
相关标签/搜索
本站公众号
   欢迎关注本站公众号,获取更多信息