GBDT(Gradient boosting Decision Tree)梯度提升决策树

参考资料 博客1 GBDT算法原理深入解析 这位大佬后面讲了推导,让我明白了这段话: Gradient Boosting是一种Boosting的方法,其与传统的Boosting的区别是,每一次的计算是为了 **减少上一次的残差(residual) **,而为了消除残差,可以在残差减少的梯度(Gradient)方向上建立一个新的模型。所以说,在Gradient Boosting中,每个新的模型的建立
相关文章
相关标签/搜索