GBDT的训练能否并行,随机森林呢?

首先讲结论:GBDT不可并行训练,随机森林可以并行训练。

然后讲原因,如下。

 

GBDT原理:https://blog.csdn.net/NXHYD/article/details/104601247

GBDT是通过采用加法模型(即基函数的线性组合),以及不断减小训练过程产生的残差来达到将数据分类或者回归的算法。

可以看到,GBDT每一次训练出来的弱分类器都会被用来进行下一个弱分类器的训练。因此,GBDT每个弱分类器是无法进行并行训练的。

 

随机森林:https://blog.csdn.net/NXHYD/article/details/104612472

原理:随机森林顾名思义,是用随机的方式建立一个森林,森林里面有很多的决策树组成,随机森林的每一棵决策树之间是没有关联的。

随机森林是有放回的随机选择N个样本(每次随机选择一个样本,然后返回继续选择)。每次使用随机选择的N个样本用来训练一个决策树。各个决策树之间没有联系,因此可以并行训练。