GBDT原理及和Adaboost的区别

GBDT和Adaboost的区别 Adaboost和GBDT都是基于加法模型和前向分步算法。Adaboost用于分类时可以看成基分类器是分类决策树桩,令损失函数为指数函数,通过每一次迭代调整样本权重分布使损失函数达到最小。这里指数函数和分类错误率一般分类器使用的分类函数可以认为是等价的。Adaboost用于回归时基学习器是回归决策树桩,令损失函数为残差。这里为什么不调整权重?GBDT是通过每一步拟
相关文章
相关标签/搜索