一个实例讲透GBDT

GBDT(Gradient Boosting Regression Tree,梯度提升回归树)是Boosting算法的一种,但是和AdaBoost算法不同,区别如下:AdaBoost算法是利用前一轮的弱学习器的误差来更新样本权重值,然后一轮一轮迭代;GBDT虽然也是迭代,但是GBDT要求弱学习器必须是CART回归树,而且GBDT在训练的时候,要求模型预测的样本损失尽可能的小。 在GBDT的迭代中,
相关文章
相关标签/搜索