基于Bagging与boosting的算法3---GBDT

他也是一棵提升树 第四部分:总结 百度:机器学习中损失函数及其梯度 每步优化一个损失函数 加法模型:每次在损失上增加,减小损失。 决策树既可以做分类,也可以做回归 回归问题的提升树,算最小均方差就可以了。 知道就可以 GBDT是一个提升树—处理数据量比较大的问题,通过GBDT处理原始数据(梯度提升树,可以对数据进行分类,将分类好的数据交给逻辑回归,GBDT+LR例子) gbdt+lr 参考网上GB
相关文章
相关标签/搜索