决策树和GBDT

回顾下Adaboost,我们是利用前一轮迭代弱学习器的误差率来更新训练集的权重,这样一轮轮的迭代下去。 gbdt 的算法的流程 gbdt通过多轮迭代,每轮迭代产生一个弱分类器,每个分类器在上一轮分类器的梯度(如果损失函数是平方损失函数,则梯度就是残差值)基础上进行训练。弱分类器一般会选择为CART TREE(也就是分类回归树) 但是其实我们真正关注的,1.是希望损失函数能够不断的减小,2.是希望损
相关文章
相关标签/搜索