Multi-Layered Gradient Boosting Decision Trees(mGBDT) 笔记

自去年周志华老师提出了“深度森林”后,有重磅提出了多层梯度提升决策树模型。提出通过堆叠多个回归 GBDT 层作为构建块,并探索了其学习层级表征的能力。此外,与层级表征的神经网络不同,他们提出的方法并不要求每一层都是可微,也不需要使用反向传播更新参数。本文旨在对该paper进行解读,转载请注明出处。 本文主要回答了两个问题: 1、我们是否可以用非可微组件构建多层模型(比如使用树集成来获得分层分布式表
相关文章
相关标签/搜索