提升树 & GBDT

仍然采用的是加法模型: 注意看,这里没有用权值。 这里分类树(二分类)就用Adaboost就行 回归树采用残差训练 在考虑,如何让训练过程快一点:让损失函数沿着梯度方向的下降。这个就是gbdt 的 gb的核心了。 利用损失函数的负梯度在当前模型的值作为回归问题提升树算法中的残差的近似值去拟合一个回归树 GBDT的思想可以用一个通俗的例子解释,假如有个人30岁,我们首先用20岁去拟合,发现损失有10
相关文章
相关标签/搜索