通过对比Bagging/Boosting/RF/GDBT来理解XGB

引入 用过XGB模型的人,都大致知道,XGB是由多棵树组成的,像一片森林,这是一种集成学习方法。但是,这片森林里的每棵树都是通过纯度计算与分支划分得到的吗?多棵树是如何组合(集成)在一起共同做决策的呢?XGB和RandomForest是什么区别?XGB和GDBT又有什么区别呢? 如何才能解释这些问题 首先,我们需要理解几个概念 (1)集成学习 集成学习分为三种算法:Bagging,Boosting
相关文章
相关标签/搜索