机器学习 7 XGBoost

1. 集成算法总结 1.1 Bagging 随机森林:多个基模型的构建是基于不同数据来构建的,各个模型是独立,不提提高准确度,但是可以降低过拟合; 1.2 Boosting 通过迭代的形式,基于之前构建好的模型,对样本数据做一定的修正【或者改变权重/标签值】然后影响之后模型的构建。不断迭代构建的目的是:让预测更加准确,提升准确度,降低偏差; Adaboost 通过修正样本的权重 GBDT 通过修正
相关文章
相关标签/搜索