机器学习系列之GBDT

GBDT既可以用于回归,也可以用于分类。两者本质是一样的,分析流程也大致相同,区别在于loss function不同。 首先,介绍一下提升方法,boosting就是把一系列的弱学习器反复学习,然后组合成强学习器。对于提升方法,主要需要回答两个问题:第一个是每一轮学习过程中如何改变训练数据的权值或概率分布;第二个就是如何将弱分类器组合成强分分类器。 在前面讲到的Adaboost中,根据每次训练数据的
相关文章
相关标签/搜索