AdaBoost, GBDT和XGBoost的区别和联系

原文请参考: https://hackernoon.com/gradient-boosting-and-xgboost-90862daa6c77 什么是Boosting Boosting 是将一组弱学习器(weak learner)组合起来成为一个强学习器(strong learner) 的方法。假设我们有一个二分类任务。一个较弱的学习器分类时的错误率略小于0.5,即它的学习能力比抛硬币略强一点点
相关文章
相关标签/搜索