第二篇:对CART,Gradient Boost,Xgboost,LightGBM的学习

1、衡量决策树(结果是离散的)划分纯度的方式(也就是划分指标是否对数据进行最恰当地划分):信息增益(ID3)、信息增益率(C4.5)、基尼系数(CART)等等。 2、回归树的关键点、参数:(1)选取哪个feature分裂节点呢;(2)节点的预测值(总不能靠取平均值这么粗暴不讲道理的方式吧,好歹高级一点)。 3、确定分裂用的feature,how?最简单的是粗暴的枚举,选择loss function
相关文章
相关标签/搜索