TASK2 GBDT算法梳理

1 前向分布算法 这样,前向分布算法将同时求解从m=1到M的所有参数βm, rm的优化问题简化为逐次求解各个βm, rm的优化问题。 2负梯度拟合 GBDT在函数空间中利用梯度下降法进行优化。在GBDT的迭代中,假设前一轮迭代得到的强学习器是ft-1(x)损失函数是L(y,ft-1(x)) 。本轮迭代的目标是找到一个CART回归树模型的弱学习器ht(x),让本轮的损失L(t,ft-1(x)+ht(
相关文章
相关标签/搜索