AdaBoost, LogitBoost and GradientBoosting

前向分步算法与加法模型(forward stagewise algorithm and additive model)   (1) AdaBoost:前向分步算法中损失函数取指数损失函数 (2) LogitBoost:前向分步算法中损失函数取的是Logistic Loss (3) GradientBoosting(梯度提升):当损失函数是平方损失和指数损失函数时,每一步优化是很简单的。比如对于平方
相关文章
相关标签/搜索