GDBT-回归预测篇

在上一篇文章gdbt梯度提升原理,详细介绍了梯度、方向导数、为什么负梯度方向是函数下降最快方向,继而引出了GDBT的模型与优化原理。本篇将进一步以实例的方式演绎GDBT是如何进行回归预测的。 上篇推导出的优化模型如下: fm(x,y,z)=fm−1(x,y,z)+learnrate∗(⅁Lfm−1) f m ( x , y , z ) = f m − 1 ( x , y , z ) + l e a
相关文章
相关标签/搜索