GBDT的训练能否并行,随机森林呢?

首先讲结论:GBDT不可并行训练,随机森林可以并行训练。 然后讲原因,如下。   GBDT原理:https://blog.csdn.net/NXHYD/article/details/104601247 GBDT是通过采用加法模型(即基函数的线性组合),以及不断减小训练过程产生的残差来达到将数据分类或者回归的算法。 可以看到,GBDT每一次训练出来的弱分类器都会被用来进行下一个弱分类器的训练。因此
相关文章
相关标签/搜索