GBDT小结

GDBT 在说GBDT前,我们先说下它的俩前缀Gradient Boosting: Boosting: 这是一种迭代算法,每一次训练都是在前面已有模型的预测基础上进行。 最简单地说,先训练一个初始模型,对比真实值和预测值的残差;用残差再训练一个模型,再计算残差;再训练……。这样,每一个模型都专注于修正前面模型最不给力的效果方面。 于是,通过这种方式联合多个弱分类器,就能得到一个强分类器。 Grad
相关文章
相关标签/搜索