GBDT原理解析:为什么说GBDT是拟合残差的梯度下降算法

写这篇博客是因为博主花了一天时间在网上找GBDT的原理解析,但发现所有介绍GBDT的文章都没有说清楚,尤其没有让博主明白为什么GBDT的每一步学习是基于之前的错误学习的,是在拟合残差。于是博主只好又花半天时间读了Friedman的原文的前半部分(后半部分开始介绍正则化、变量重要性定义和模拟实验了,没细看),感觉终于懂了80%-90%。博主觉得一定要把这个理解记下来,以便以后复习。 本博客主要参考论
相关文章
相关标签/搜索