GBDT算法笔记

概述: GBDT算法可以看成是由M棵树CART回归树组成的加法模型, 该模型使用前向分布算法来学习, 在前向分布算法中,每一步只学习一个基函数(基模型)及其系数,逐步逼近优化目标函数 在回归问题中,当采用平方误差损失时,那么GBDT每一步目标是去拟合 到上一步为止学到的模型 与真实样本的残差 GBDTl来自提升树,下面从4个方面来学习GBDT算法 1.CART回归树 2.加法模型与前向分布算法 3
相关文章
相关标签/搜索